Bioinformática. O Presente e o Futuro. 1 Introdução. José Pedro Ferreira, Mário Pereira, Pedro Nuno Pinto

Tamanho: px
Começar a partir da página:

Download "Bioinformática. O Presente e o Futuro. 1 Introdução. José Pedro Ferreira, Mário Pereira, Pedro Nuno Pinto {ei02059,ei02071,ei02089}@fe.up."

Transcrição

1 Bioinformática O Presente e o Futuro José Pedro Ferreira, Mário Pereira, Pedro Nuno Pinto Faculdade de Engenharia da Universidade do Porto Resumo A Bioinformática é uma área cientíca em crescente expansão. Nos últimos anos, o desenvolvimento tecnológico permitiu o armazenamento, tratamento e interpretação de grandes quantidades de informação, que no passado se encontrava dispersa em vários suportes físicos, possibilitando assim um cruzamento de dados automatizado. Esta realidade abriu espaço para o desenvolvimento de novas áreas, que aliam a biologia molecular e a genética às mais recentes tecnologias da informação, surgindo assim a Bioinformática. Este documento procura introduzir a Bioinformática ao leitor proveniente de um contexto tecnológico, e familiarizá-lo com os conceitos a ela associados, explicitando a sua utilidade, áreas de aplicação, métodos utilizados e perspectivas de expansão. Consideramos que o conhecimento supercial deste conjunto de técnicas e métodos é essencial, numa época em que a informação genética tem uma importância crescente, tanto no campo do estudo da genealogia humana, como na análise e tratamento de doenças hereditárias. Por outro lado, as perspectivas de crescimento desta área são atractivas, e as probabilidades de um prossional das tecnologias da informação e das ciências da computação se cruzar com problemas deste domínio de aplicação cresce de dia para dia. Assim, começamos por denir o que é Bioinformática, delimitando os seus domínios de aplicação e a interacção com as diferentes ciências com que se relaciona. Posteriormente, introduzimos alguns conceitos básicos sobre biologia molecular e genética, essenciais para a compreensão do restante documento. Introduzido este conhecimento fundamental, debruçamo-nos sobre as áreas de aplicação da Bioinformática, a sua utilidade, e as ferramentas utilizadas. Esperamos, assim, conseguir fornecer uma panorâmica sobre a Bioinformática e os principais conceitos envolvidos na sua aplicação. 1 Introdução Este documento pretende abarcar o tema emergente da bioinformática, procurando denir esta área cientíca, entender as suas preocupações e actividades. De facto, a bioinformática tem vindo a constituir-se com uma actividade em exponencial expansão nos últimos anos. O que procuraremos fazer neste documento Mestrado Integrado em Engenharia Informática e Computação 1

2 será, para além do que já foi referido, contextualizar a bioinformática, elucidar sobre as suas áreas de actuação e aplicação, perceber em que circunstancias a sua aplicação é premente. Contudo, dado que se trata de uma área em expansão, impõe-se igualmente reunir e analisar perspectivas futuras, tentar no fundo perceber para onde caminha a bioinformática e para onde poderá eventualmente convergir. Assim, seguidamente será feita uma iniciativa no sentido de denir e claricar o conceito de bioinformática. Posteriormente, iremos fazer uma abordagem a alguns conceitos e termos que se encontram intimamente relacionados com a temática (DNA, RNA, genes, expressão genética, etc). Uma vez enquadrados certos conceitos, apresentaremos algumas áreas de aplicação, o mais amplas e exemplicativas possível, de modo a entender o domínio de aplicação da bioinformática e a sua relevância para o mundo. Iremos igualmente perspectivar o futuro da bioinformática, tal como mencionado anteriormente, nalizando com algumas conclusões por nós consideradas mais pertinentes. Com este documento esperamos criar uma base de conceitos e enquadramentos da bioinformática, procurando elucidar o leitor sobre este campo cientíco e a sua relevância para o conhecimento da humanidade. 2 O que é Bioinformática? 2.1 Uma primeira denição Bioinformatics: Research, development, or application of computational tools and approaches for expanding the use of biological, medical, behavioral or health data, including those to acquire, store, organize, archive, analyze, or visualize such data. NIH working denition of Bioinformatics and Computational Biology, 2000 [Bioinformatics] refers to the creation and advancement of algorithms, computational and statistical techniques, and theory to solve formal and practical problems posed by or inspired from the management and analysis of biological data. Wikipedia, "Bioinformatics" Segundo Luscombe, Greenbaum e Gerstein [1], "bioinformática" é o acto de "conceptualizar" a biologia, na sua vertente molecular, e de lhe aplicar "técnicas informáticas" (derivadas de disciplinas como as matemáticas aplicadas, as ciências da computação e a estatística), de forma a entender e organizar a informação associada com tais moléculas, em larga escala. Esta é, provavelmente, a descrição desta disciplina que consegue ser simultaneamente mais compacta e mais precisa. 2

3 Por outro lado, existe ainda uma discussão signicativa em torno do que é a "bioinformática". Dado o seu carácter interdisciplinar, os seu domínios atravessam várias áreas do conhecimento cientíco, sendo que esta assenta principalmente na biologia, na medicina, nas ciências da computação, na matemática e na física. São estas as ciências "básicas" que dão suporte a esta disciplina. A amplitude do termo acaba por ser inferior à que o seu sentido etimológico lhe atribui: a bioinformática lida com macromoléculas - cadeias de DNA, aminoácidos, proteínas, sobretudo. Não se debruça sobre a biologia, em toda a sua extensão, mas antes nos mecanismos moleculares que constituem o seu fundamento, e na análise experimental concreta. De acordo com Gibas e Jambeck [2], a bioinformática é um subconjunto da chamada "biologia computacional", que estuda a aplicação de técnicas quantitativas analíticas à modelação de sistemas biológicos. Esta tem um âmbito mais alargado, debruçando-se sobretudo sobre modelos teóricos: predição de estrutura proteica, simulação de processos bioquímicos, etc... O crescimento enorme que se vericou nestas áreas, durante os últimos anos, e que atingiu o seu pico com o mapeamento do genoma humano, na íntegra, levou à necessidade de atribuir um nome à disciplina que alavancou todo esse processo. A "bioinformática" apareceu, assim, na cultura popular, como uma "biologia da idade da informação", baseada não em nomes em latim, nem em animais empalhados, mas antes na recolha, análise e cruzamento de grandes quantidades de dados recolhidos a partir de material biológico. 2.2 Os Objectivos da Bioinformática There are three important sub-disciplines within bioinformatics: the development of new algorithms and statistics with which to assess relationships among members of large data sets; the analysis and interpretation of various types of data including nucleotide and amino acid sequences, protein domains, and protein structures; and the development and implementation of tools that enable ecient access and management of dierent types of information. National Center for Biotechnology Information, 2001 São os mesmos Luscombe, Greenbaum e Gerstein [1] que dividem os objectivos da bioinformática em três categorias: Organização da informação biológica em repositórios, de forma a que seja facilmente acedida pelos cientistas; Desenvolvimento de ferramentas de auxílio à análise dos dados recolhidos; Análise dos dados recolhidos, com recurso às ferramentas desenvolvidas, e interpretação dos resultados à luz da biologia; Assim, a bioinformática pode ser vista como uma disciplina prática, que trabalha sobre os conhecimentos fornecidos pela biologia e pela química, mas que não tem uma fronteira denida, nem um método particularmente restrito. Resumindo: "Bioinformatics is just one way of studying biology." Lincoln Stein,

4 3 Crash-course Today, we are learning the language in which God created life. Presidente Bill Clinton, 26 Junho de 2000 ao anunciar a primeira versão da sequência do genoma humano. 3.1 Princípios Básicos A unidade básica da vida é a célula, uma fábrica em miniatura que produz matéria-prima, energia, e tem uma capacidade de remover resíduos, necessária para a vida. Um ser humano tem em média 100 triliões células: todas têm origem numa só célula e todas têm a mesma informação genética. É o DNA, uma substância química presente no núcleo das células, que contém esta informação genética, que é utilizada para replicar células e construir proteínas. O DNA ou ácido desoxirribonucleico, contém a informação necessária para passar atributos genéticos de geração para geração. Em todas as células do nosso corpo, com a excepção dos glóbulos vermelhos, que não têm núcleo, o DNA fornece um programa de computador que determina as nossas características (físicas), entre outros atributos. O conjunto de instruções de criação de um organismo é conhecido por genoma. O DNA serve dois propósitos: auto-replicação para que as células se dividam e tenham a mesma informação genética; e transporte das instruções para a síntese das proteínas necessárias ao funcionamento das células. A informação guardada no DNA é passada dos pais para os lhos, com metade vinda da mãe e a outra metade do pai. Os ácidos nucleicos, como o DNA, são compostos por várias unidades de nucleótidos que por sua vez se decompõem em três partes: a base azotada, um açúcar (pentose) e um radical fosfato. É a base azotada que traz a grande variedade aos nucleótidos, enquanto que a porções de fosfato e açucar são invariantes. O alfabeto do DNA é constituído por quatro caracteres que representam as quatro bases azotadas existentes: A (adenina), T (timina), C (citosina) e G (guanina). As várias combinações possíveis entre estas letras ou bases azotadas traduzem-se na diversidade biológica, quer entre as espécies, quer entre indivíduos da mesma espécie. Os humanos têm cerca de três mil milhões de posições possíveis para nucleótidos. Uma vez que cada nucleótido poderá ter uma de quatro bases azotadas, são possíveis triliões de combinações. O conteúdo do DNA está codicado numa determinada sequência de bases azotadas assim como um computador guarda informação em binário numastring. Numa sequência de DNA, as pontas são numeradas, uma com 5' outra com 3', fornecendo-se assim uma direcção às DNA polimerases, enzimas que copiam o DNA, para que leiam e escrevam a sequência no sentido 5' para 3'. No seu estado natural dentro de uma célula, o DNA é composto por duas cadeias polinucleotídicas ligadas entre si, por um processo chamado hibridização. A ligação entre estas duas cadeias é feita a partir de ligações de hidrogénio entre pares de bases azotadas complementares. Estes pares são feitos tendo em conta 4

5 regras segundo as quais a adenina só se liga à timina e a citosina só se liga à guanina. As duas cadeias de DNA são anti-paralelas, ou seja, uma está orientada no sentido 5' para 3', enquanto que a outra está no sentido 3' para 5'. Assim, sabendo a sequência de uma das tas de DNA, facilmente se determina a outra sequência, pelo facto de serem complementares, usando as regras adenima-timina e citosina-guanina. Estas combinações e a estrutura do DNA foram descobertas por James Watson e Francis Crick em 1953[8]. Figura 1. A dupla-hélice de DNA de Watson e Crick. Dentro das células humanas, o DNA encontra-se dentro do núcleo, dividido em cromossomas, que não são mais do que pequenos pacotes de DNA ordenado. O genoma humano é constituído por 22 pares de cromossomas somáticos e 2 cromossomas sexuais. Dentro de um cromossoma, o DNA divide-se em duas regiões, região codicante ou exão e região não-codicante ou intrão. As zonas codicantes são também conhecidas como genes e contêm informação necessária para produzir proteínas. 3.2 O Processo de tradução Cada gene consiste numa sequência de nucleótidos, codicados numa cadeia de DNA. Uma vez que os genes contêm a informação para produção de proteínas, poder-se-á dizer que existe uma correspondência entre nucleótidos, a unidade de construção de material genético e os aminoácidos, a unidade de construção de uma proteína. A um conjunto de três nucleótidos dá-se o nome de codão, sendo que cada codão corresponde a um aminoácido. 5

6 O processo de produção de uma proteína tem duas fases, a transcrição e a tradução. Na primeira fase é produzida uma cadeia única de RNA 1 denominada mrna 2, cuja sequência de nucleótidos é complementar à cadeia DNA que foi transcrita. A RNA polimerase é a enzima responsável por fazer a transcrição da sequência original. No caso dos humanos (eucariontes 3 ) a transcrição dá-se no núcleo das células, uma vez que é aí que se encontra o DNA. No entanto, concluído o processo, o mrna deslocar-se-á para o citoplasma 4 para a segunda fase da produção de proteínas. Antes dessa viagem, são removidos os intrões da sequência mrna, pois só interessam os segmentos codicantes para a produção das proteínas. Segue-se a fase de tradução. Esta fase é levada a cabo pelos ribossomas, estruturas presentes nas células, cuja função principal é a produção de proteínas. Nos ribossomas, o código genético contido no mrna é lido de três em três nucleótidos ou codão, por uma mólecula de RNA especializada para o efeito denominada trna 5. O trna tem três base azotadas ou anti-codões, que são complementares ao codão a ser lido. Quando o trna se liga ao seu codão complementar na cadeia do mrna, o ribossoma produz e acrescenta um novo aminoácido à cadeia que está a ser criada, e que dará lugar à nova proteína, assim que terminar a tradução. Figura 2. Processo de tradução do DNA em proteínas. 3.3 Análise a partir de Microarrays Hoje em dia, a análise da expressão genética é bastante mais fácil, utilizando-se, para o efeito, uma tecnologia denominada microarray. Um microarray consiste num chip de sílicio, uma matriz bidimensional, em que cada célula corresponde a um gene diferente. As amostras de DNA são colocadas sobre o microarray, e o resultado é analisado. Dentro de cada célula do microarray existem vários nucleótidos, organizados em cadeias de DNA (probes) correspondentes ao gene: 1 Ácido ribonucleico 2 RNA mensageiro 3 Eucariontes - organismos de uma ou mais células complexas, com núcleo diferenciado 4 Citoplasma - meio celular, isolado do exterior pela membrana citoplasmática 5 RNA de transferência 6

7 Perfect Matches - São cadeias complementares do gene que se pretende identicar - as amostras do gene vão emparelhar-se com as probes. Mismatches - São cadeias em tudo complementares ao gene, excepto num dos nucleótidos. Pretendem ltrar eventuais falsos positivos - as amostras do gene, na sua maioria, não vão emparelhar com estas probes, mas eventuais amostras semelhantes (mas distintas) vão acabar por o fazer. Tanto os Perfect Matches (PM) como os Mismatches (MM) estão rotulados com moléculas uorescentes, que são utilizadas para medir o nível de hibridização do DNA experimentado com as probes PM e MM dos vários genes. Assim, podemos descobrir milhares de pormenores genéticos de um indivíduo, apenas através da leitura de um microarray. 4 Aplicações da Bioinformática 4.1 As áreas de estudo da Bioinformática A Bioinformática pode dividir-se, quanto às actividades, numa série de áreas fundamentais: Análises de Sequências de DNA - determinar os genes que codicam proteínas especícas, e áreas do genoma com funções regulatórias; Análise de Expressão Genética - determinar o nível de expressão de um determinado gene, geralmente com recurso a microarrays. Análise de Expressão Proteica - análise das proteínas presentes em amostras biológicas, geralmente com recurso a microarrays proteicos; Análise de Regulação - estudar os mecanismos de regulação das células, ao nível molecular. Com recurso a dados sobre a expressão de genes e proteínas, é possível estabelecer relações entre o estado de uma célula, num dado momento, e as macromoléculas (proteínas, DNA...) presentes nesse mesmo instante; Predicção de Estrutura Proteica - estudo da estrutura das proteínas, a partir da análise do DNA. Através da descoberta dos genes presentes numa cadeia de DNA, podemos prever que aminoácidos farão parte da proteína codicada; Genómica comparativa - estabelecer relações entre o material genético de diversos organismos, e estudar as causas das diferenças detectadas. São exemplos disso: Análise de Mutações - comparar genomas de células normais e cancerosas, de forma a tentar determinar a causa genética de certa patologia oncológica; Biologia Evolucionária/Filogenia - o estudo da evolução das espécies, com recurso a dados sobre as alterações genéticas que estas sofreram ao longo do tempo; Biodiversidade - a bioinformática é uma ajuda preciosa na indexação dos genomas das diferentes espécies existentes no mundo; Estas áreas, pelo carácter multidisciplinar da bioinformática, e como se pode vericar, requerem conhecimentos de campos variados das ciências da vida. 7

8 4.2 Casos Reais de Aplicação A bioinformática está a ser aplicada, actualmente, em projectos de áreas totalmente diferentes, mas que têm em comum a sua ligação às ciências da vida. Projecto: "Species Indexing the World's known species" [9] Área: Biodiversidade O projecto "Species 2000" é levado a cabo por um consórcio de organizações que trabalham na área da biologia, e tem como objectivo indexar, em várias bases de dados distribuídas pelo mundo (actualmente, 40), todas as espécies vivas conhecidas. Neste momento, estima-se que já 50% dessas espécies estejam indexadas. O projecto está aberto à colaboração de organizações que queiram contribuir e submeter informação acerca de novas espécies. Projecto: "Mining data to save children with brain tumors" [10] Áreas: Genómica comparativa, Análise de Mutações, Análise de Expressão genética Em Chicago, nos EUA, no Children's Memorial Hospital, o Dr. Eric Brehmer recorre a ferramentas de data mining, de forma a tentar alcançar uma forma de diagnosticar rapidamente o tipo de tumor de que um determinado paciente sofre. As amostras de tecido canceroso são submetidas a uma análise genética, através de microarrays, e os níveis de expressão dos genes servem como input para um algoritmo de classicação (baseado em árvores de decisão) que classica a amostra segundo os tipos de tumor conhecidos. A árvore de decisão é gerada com recurso a informação acerca de casos anteriores. Esta técnica tem demonstrado níveis de ecácia da ordem dos 95%, e está prevista uma disponibilização da base de dados, através da web, para que mais casos possam ser acrescentados, e a precisão da classicação possa assim aumentar. Projecto: "The Human Genome Project" [11] Áreas: Análises de Sequências de DNA, Genómica Em 2000, a Celera Genomics e o International Human Genome Project (um consórcio de geneticistas americanos, ingleses, chineses, japoneses, alemães e franceses, nanciado pelo estado americano) chegaram à primeira versão do genoma humano anotado. Foi necessário um esforço computacional extremamente elevado, e uma capacidade de armazenamento enorme, para identicar os cerca de genes e determinar a sequência dos 3 mil milhões de pares de bases azotadas que os compõem. O projecto atingiu um ponto importante quando, em 2003, foi publicada uma versão praticamente completa do genoma humano. Em 2006, - nalmente, a sequência do último cromossoma foi publicada na revista Nature. 8

9 5 Ferramentas Estando baseada nas tecnologias da informação, a bioinformática conta, sobretudo, com ferramentas de armazenamento, processamento e pesquisa de dados, de vários tipos e utilidades diversas. Por outro lado, os repositórios de informação são essenciais para que se possam estabelecer padrões em grande escala. Nesta secção vamos enumerar apenas algumas ferramentas utilizadas nesta área. 5.1 Data Mining As ferramentas de data mining assumem, na bioinformática, um papel de relevo, nomeadamente na área da genómica comparativa, pela necessidade de estabelecer relações (clustering, regras de associação e classicação) a partir de grandes volumes de dados. Sendo assim, ferramentas genéricas de data mining, como o Weka[15] e o SPSS Clementine[16] podem ser utilizadas, além de ferramentas mais especializadas para análise de dados genéticos, como: BLAST 6 - Basic Local Alignment Search Tool - compara sequências diferentes de nucleótidos ou proteínas, de forma a encontrar regiões semelhantes, permitindo estabelecer relações logénicas, por exemplo; GENEPOP 7 - Software especializado em genética populacional. Calcula vários parâmetros estatísticos relativos a uma população de genomas; Arlequin 8 - Software de genética populacional, semelhante ao GENEPOP; 5.2 Bio{Perl,Python,Ruby,Java} Os projectos BioPerl 9, BioPython 10, BioRuby 11 e BioJava 12 têm como objectivo providenciar ferramentas da área da bioinformática, baseadas, respectivamente nas plataformas Perl, Python, Ruby e Java. As ferramentas disponibilizadas por estes projectos têm um conjunto de funcionalidades e algoritmos comuns: Manipulação de sequências de genes e aminoácidos; Reconhecimento e leitura de cheiros em formatos especícos da área da biologia molecular; Interoperabilidade com diferentes tipos de bases de dados; Pesquisa de genes e sequências;emp Alinhamento de sequências de nucleótidos; Os quatro projectos estão a desenvolver, também, em conjunto, um DBMS denominado BioSQL, especializado no armazenamento de informação genética. 6 BLAST on NCBI 7 Genepop on the Web 8 Arlequin Home on the Web 9 BioPerl 10 BioPython 11 BioRuby 12 BioJava 9

10 Figura 3. Plataformas para Bioinformática Bio{Perl,Python,Ruby,Java} 5.3 Bases de Dados Existem também diversas bases de dados contendo informação genética acerca de milhares de organismos, incluindo o ser humano: GenBank / EMBL-Bank - O GenBank, pertencente ao NIH, é uma base de dados de sequências genéticas, contendo uma colecção de todas as sequências anotadas de DNA, disponíveis publicamente. O EMBL-Bank é o seu equivalente europeu; Swiss-Prot - A Swiss-Prot é uma base de dados de proteínas, mantida pelo Instituto Suíço de Bioinformática e o Instituto Europeu de Bioinformática. Contém descrições das funções de cada proteína, estrutura, variantes, e outra informação relevante; Worldwide Protein Data Bank (wwpdb) - É um repositório de dados estruturais 3D sobre proteínas e ácidos nucleicos. É mantido por um consórcio internacional de instituições ligadas à bioinformática; Ensembl - O Ensembl é um projecto que tem como objectivo produzir e armazenar informação sobre o genoma de diversos seres vivos. Inclui genomas como o humano, do rato, da galinha, do mosquito, da minhoca, e de muitos outros eucariontes; Online Mendelian Inheritance in Man (OMIM) - É um catálogo de todas as doenças genéticas que afectam o homem, e que as relaciona, quando possível, com os genes causadores; Como é possível constatar, não há falta de informação disponível para processar. O principal problema, neste momento, é como tratar informação tão abundante e variada, e como a aproveitar, com o poder computacional limitado de que ainda dispomos. 6 Futuro I never think of the future - it comes soon enough... Albert Einstein ( ) 10

11 Em 2003, Lincoln Stein [6] armava numa conferência de bioinformática (O'Reilly Bioinformatics Technology Conference): "Bioinformatics: Gone in 2012." [5]. Apesar desta armação, Stein armava-se optimista quanto ao futuro dos prossionais da bioinformatica, argumentando que esta área desapareceria, nos anos próximos, mas apenas no sentido de deixar de existir como "área". Manterse-iam, no entanto, as competências (e os empregos). Nos últimos anos, a quantidade de dados biológicos, que precisam de ser tratados, analisados e guardados para diversos ns sofreu um crescimento exponencial. Desde 2003, fruto de alargados e diversos projectos de sequenciamento (por exemplo: Projecto do Genoma Humano), tem-se vericado que, em cada 14 meses, a quantidade de sequências de nucleótidos duplica. Assim, em primeiro lugar surgiu a necessidade de armazenar estas enormes quantidades de dados, sendo que isto despoletou o desenvolvimento de novos métodos capazes de os analisar. Por m, isto obrigou a um acompanhamento de hardware capaz de analisar estas imensas bases de dados. A título de exemplo, a IBM tem fornecido diversa tecnologia e ferramentas Web de modo a ajudar os cientistas, permitindo á empresa envolver-se na área das ciências da vida. Neste ambiente, a bioinformática tem assumido um papel preponderante. De facto, sem ela, campos como a medicina ou a biologia não teriam evoluído da forma que se tem vericado nos últimos tempos. Isto permitiu a criação de numerosas oportunidades nesta área, envolvendo a concepção e implementação de programas e sistemas capazes de guardar, gerir e analisar vastas quantidades de dados biológicos. Em geral, os prossionais desta área necessitam de conhecimentos de programação (Perl, Java, Python, C++) e bases de dados relacionais (SQL, Sybase, Oracle) [7] pelo que normalmente, estes cargos são ocupados por pessoas da área das ciências da computação, embora os biólogos encontrem igualmente o seu espaço, sobretudo se apresentarem um complemento na área das referidas ciências. Em 2001, registou-se uma enorme bolha na corrente da bioinformática, sendo que estudantes de biologia, com alguns conhecimentos em Perl ou Java, ou pro- ssionais das ciências da computação, com alguns conhecimentos de biologia recebiam propostas desde $ a $ por ano, para iniciar actividades no ramo da biotecnologia e industria farmacêutica. Actualmente, esta área não é capaz de gerar a quantidade de empregos que a área das TI "tradicionais", por exemplo, permite. Contudo, a percentagem de crescimento é sustentada e crescente. É de referir que este aumento, apesar de tudo, não foi acompanhado por um igual aumento da qualidade dos prossionais. Neste sentido, nos últimos anos registou-se um aparecimento de cursos na área da bioinformática [4], um pouco por todo o mundo, nas melhores universidades e institutos, consequência da existência de cada vez mais mercado para absorver prossionais desta área. A título de exemplo, apresenta-se um gráco (g. 4) que traduz a actual e cada vez mais crescente envolvência das TI's no sector das ciências da vida 11

12 na Índia (um dos países pioneiros nestas áreas de actuação), com particular destaque para a bioinformática. Figura 4. TI's no sector das ciências da vida, na Índia É verdade que o futuro é sempre incerto, contudo, analisando as informações que reunimos, camos prefeitamente convencidos sobre o enorme potencial de crescimento da bioinformática, como suporte às áreas das ciências vida, e como possível empregador de prossionais da área da informática e das ciências da computação. 7 Conclusão Antes de mais, gostaríamos de salientar que este artigo representou um desao às nossas capacidades de pesquisa e aprendizagem dos novos domínios da bioinformática e da genética. Sentimos necessidade de aprofundar conhecimentos em áreas por nós pouco conhecidas, e por vezes desconhecidas, o que constituiu um desao permanente. Quanto ao artigo propriamente dito, acreditamos que a escolha em si foi bastante feliz, por diversas razões, contudo destacaríamos duas em particular: o facto de se tratar, segundo a nossa perspectiva e análise, de uma área do conhecimento muito interessante mas ainda desconhecida para muitos, com particular destaque para a comunidade estudantil em que estamos inseridos; por outro lado, é uma área com uma forte componente tecnológica, e que inevitavelmente nos seduziu, dada a nossa formação na área da computação e tecnologias da informação. Assim, procurámos denir convenientemente o conceito de bioinformática, tendo em conta algumas perspectivas, e procurando averiguar o seu carácter multidisciplinar. De facto, a bioinformática é uma actividade que envolve diversas áreas do conhecimento, actuando e conquistando o seu espaço no meio 12

13 delas. Deste modo, denimos igualmente os objectivos a que se propõe alcançar a bioinformática, nomeadamente organizar informação e desenvolver ferramentas capazes de manipular e analisar essa mesma informação. Dado que esta área implica diversos conceitos e termos por vezes desconhecidos do comum leitor, procurámos criar uma base de denições e conhecimentos na área da genética capazes de sustentar algumas abordagens que foram sendo tomadas ao longo do artigo, nomeadamente nas áreas de aplicação da bioinformática. Vericámos que existem diversas actividades e áreas de estudo que requerem a utilização da bioinformática, sendo que foram enumerados alguns casos reais de aplicação com alguma relevância. Neste sentido, foi feito igualmente um levantamento de ferramentas de suporte a esta área, nomeadamente data mining, linguagens de programação e bases de dados. Por m, cabe-nos realçar que a bioinformática representa uma importante área em expansão, exigindo capital humano capaz e de qualidade, de modo a colmatar as suas necessidades nas diversas áreas de aplicação, sendo que, cada vez mais, universidades conceituadas têm apostado em cursos de bioinformática um pouco por todo o mundo. Neste sentido, podemos armar que a bioinformática possui um futuro promissor pela frente, sendo um aposta deveras interessante em termos de saídas prossionais. Referências [1] Luscombe, Nicholas M, Greenbaum, Dov & Gerstein, Mark: What is bioinformatics? An introduction and overview, 2001 Yearbook of Medical Informatics, 2001 [2] Gibas, Cynthia & Jambeck, Per: Developing Bioinformatics Computer Skills, First Edition, April 2001, O'Reilly & Associates, Inc. [3] Bayat, Ardeshir: Science, medicine, and the future: Bioinformatics, British Medical Journal, 324: (27/04/2002) [4] Hughey, Richard & Karplus, Kevin: Bioinformatics: A new eld in engineering education, Journal of Engineering Education, Janeiro de 2003 [5] O'Reilly Network: Stein Gives Bioinformatics Ten Years to Live, Disponível on-line em html. [6] Stein, Lincoln: Lincoln Stein's Home Page, disponível on-line em cshl.org/~lstein/. [7] CIOL Network BioSpectrum: Bioinformatics: wave of the future, Disponível on-line em [8] Watson J. & Crick F: A Structure of Deoxyribose Nucleic Acid, Nature, No. 4356, 25 de Abril de Disponível on-line em dna50/watsoncrick.pdf [9] Species 2000: Species 2000: About Species 2000, disponível on-line em [10] SPSS Inc: Mining data to save children with brain tumors, Disponível on-line em [11] The Human Genome Project: Human Genome Project Information, disponível on-line em shtml. 13

14 [12] Witten, Ian H. & Frank, Eibe: "Data Mining: Practical machine learning tools and techniques", 2nd Edition, Morgan Kaufmann, San Francisco,

15 e-government e sua aplicação; Passado, Presente e Futuro em Portugal e no Mundo António Mota, Hugo Valente e Ivo Navega Abstract. e-government é o uso, por parte de um governo, de Tecnologias de Informação e Comunicação para troca de informação e serviços com cidadãos, empresas, funcionários públicos ou Administração Pública. Os seus objectivos passam por permitir uma interacção rápida, cómoda, eficaz e transparente, disponibilizando serviços relevantes e úteis que melhorem a acessibilidade à informação. O sucesso da aplicação de e-government numa organização pública requer um elevado nível de suporte político, a articulação e colaboração entre as várias áreas organizacionais, a presença de recursos humanos e financeiros apropriados, a existência de cidadãos participativos e de meios que potenciem essa participação, uma Administração Pública adaptada aos cidadãos e uma intensificação de acções educacionais. Essa aplicação pode ser realizada em três passos: conhecimento dos processos de negócio e estabelecimento de métricas de desempenho que os avaliem; automatização de processos; e integração de serviços. Apesar das vantagens, o e-government possui custos, podendo também envolver uma elevada complexidade ao nível técnico, legal e em termos de ensino e aproximação das tecnologias aos diversos grupos sociais. O conceito de e-government surgiu no final da década de 50 e foi introduzido em Portugal no início da década de 90. Actualmente, em Portugal existem programas para a elaboração de um Plano Estratégico de e-government. Keywords: e-government, Administração Pública, Serviços Públicos 1 Introdução Este artigo começa por definir um conjunto de noções fundamentais relacionadas com o conceito de e-government, às quais se segue a apresentação dos seus requisitos, passos de implementação e formas de avaliação, vantagens e limitações. Estabelecida uma base de discussão, é feita uma análise da utilização de e-government em Portugal e no Mundo, através da exposição da sua evolução histórica e do ponto de situação actual. De seguida, são expostos os desafios futuros nesta área. Finalmente, são apresentadas as conclusões obtidas. 15

16 2 Noções fundamentais 2.1 Conceito de e-government O e-government é o uso, por parte de um governo, de Tecnologias de Informação e Comunicação (TIC) para troca de informação e serviços com cidadãos, empresas, funcionários públicos ou com a própria Administração Pública [6], [7]. Surgiu num enquadramento de mudança, onde a revolução no atendimento ao cliente nas empresas privadas aumentou as expectativas relativas ao sector público, e onde foi emergindo uma visão integrada e centralizada para a prestação de serviços públicos. Foi surgindo então no sector público a necessidade de reavaliar a forma como os serviços são prestados e geridos, com vista a centrá-los na figura do seu principal cliente: o cidadão [1], [8]. 2.2 Modos de interacção O e-government insere-se num ecossistema complexo, de onde se pode inferir os modos de interacção representados na figura 1 (retirada de [3]): Fig. 1. Modos de Interacção em e-government O G2C é o principal modo de interacção em e-government, e é nele que se incluem acções desenvolvidas para agilizar a interacção entre pessoas (na qualidade de cidadãos consumidores de serviços públicos) e o Governo ou Administração Pública. O G2G inclui a partilha de dados e a troca de informação electrónica entre actores do sector público (Governo e Administração Pública), sendo particularmente útil para facilitar a comunicação entre diversas áreas do Estado. 16

17 Por sua vez, o G2E diz respeito à comunicação do Governo e da Administração Pública com os seus funcionários, sendo por isso de índole interna. Por último, o G2B engloba as transacções comerciais do Estado e as aquisições de serviços que este efectua por via electrónica; inclui também as interacções que as organizações são obrigadas, por lei, a ter com o Estado [10]. 2.3 Tipos de e-participação Uma das áreas onde a aplicação do conceito de e-government é mais promissora é a chamada e-participação (ou e-sociedade) que, de acordo com [10], se baseia no desenvolvimento e construção de interacções externas ao poder político e Administração Pública, fomentando a participação pública e a cidadania e formando uma base onde o cidadão possa tomar decisões num processo participado, inclusivo e consciente. Existem três níveis de e-participação: e-informação: oferta de informação electrónica sobre assuntos de interesse público (leis, orçamentos, regulamentos, ); e-acesso: disponibilização de ferramentas e mecanismos para acesso e introdução de informação por parte do cidadão; e-decisão: integração da opinião do cidadão nas tomadas de decisão do poder político e obtenção da reacção pública a essas decisões. 3 Aplicação, vantagens e limitações do e-government 3.1 Requisitos básicos Para que a aplicação de e-government tenha sucesso, é crucial que se adapte a Administração Pública às necessidades do cidadão, de modo a criar serviços efectivamente úteis; por vezes, tal adaptação exige uma grande mudança cultural. O suporte político é também um factor decisivo, pois normalmente é necessário superar barreiras legais e normativas desactualizadas e contraproducentes. Outro requisito a ter em conta é a articulação e colaboração organizacional, para que o cidadão encontre um conjunto de serviços o mais homogéneo possível. Finalmente, também é necessário garantir a existência de recursos financeiros e humanos adequados, sendo a definição rigorosa de programas de formação um meio para atingir este último fim. Todos estes requisitos potenciam a criação de um serviço útil para o cidadão. No entanto, é necessário chegar ao cidadão, havendo por isso a necessidade de efectuar um desenvolvimento equilibrado de vários canais de interacção (Internet, rede de telecomunicações, ). Mas não é suficiente criar o serviço certo e disponibilizar um conjunto de canais que permitam a sua utilização: é também necessário sensibilizar o cidadão comum a 17

18 tornar-se participativo. Para tal é essencial que os organismos públicos responsáveis pelo lançamento de serviços levem a cabo acções promocionais que motivem o cidadão a querer utilizar esses serviços. E quando isso acontecer, é finalmente necessário que ele saiba utilizá-los, pelo que a uma campanha de marketing informativa se deverá juntar uma outra educacional. 3.2 Aplicação Segundo [8], a aplicação de e-government pode ser realizada em três passos: 1. Levantamento e Avaliação de Processos de Negócio. Neste primeiro passo as organizações públicas devem ficar a conhecer os seus processos de negócio e identificar métricas de desempenho que os permitam avaliar. Essa avaliação deve ser sistemática, automatizada e conclusiva ao ponto de sobre ela poder ser tomada uma decisão. No fim deste processo, a organização pública será capaz de identificar estrangulamentos, detectar ineficiências e avaliar o impacto resultante das modificações introduzidas. 2. Automatização de Processos de Negócio. Nesta fase procura-se obter um ganho de eficiência através da automatização dos processos efectivamente importantes para a organização e para o cidadão. É promovida a interoperabilidade entre os vários sistemas existentes através da construção de interfaces específicos e da disponibilização de um sistema central que controle a troca de informação entre os sistemas. 3. Integração de Serviços. É nesta fase que a organização pública se torna visível para o exterior e que o cidadão pode avaliar os serviços por ela disponibilizados. É crucial que esses serviços sejam orientados ao cidadão e não às características processuais da organização pública. 3.3 Metodologia de avaliação Uma vez implementado o e-government num organismo público, é importante avaliar o impacto que ele tem tanto na organização como no cidadão. Uma das metodologias existentes, apresentada em [10] e [11], permite enquadrar essa aplicação num conjunto de níveis que caracterizam a maturidade com que o e-government se encontra aplicado. A figura 2 (retirada de [10]) apresenta esses níveis. 18

19 Fig. 2. Níveis de maturidade da aplicação de e-government O primeiro nível, designado de emergente, é caracterizado pela presença da organização pública na Web; de seguida, o nível elaborado implica a presença na Web com conteúdos alargados e com uma estrutura dinâmica de páginas; no nível interactivo, o organismo público disponibiliza formulários aos utilizadores, correio electrónico aos funcionários e uma interacção via Web; no quarto nível, transaccional, os utilizadores são capazes de efectuar diversas operações e pagar serviços via Web; por último, no nível mais maduro integrado existe uma integração completa de serviços através das fronteiras administrativas. Em complemento a esta metodologia podem ser utilizadas outras, tal como a análise de custos-benefícios, de retorno de investimento ou de taxas de utilização. Em última análise, o melhor sintoma de sucesso da aplicação do e-government é a existência de cidadãos participativos que se relacionem com a organização pública de um modo eficaz, económico e transparente [8]. 3.4 Vantagens A aplicação de e-government numa organização pública possui diversas vantagens, das quais se destacam [2], [4], [5], [7], [8], [9]: Transparência e foco no cidadão, com os serviços alinhados à sua necessidade; Qualidade e adequação dos serviços criados, tornando menos burocrática e mais simples, optimizada e próxima a relação entre a Administração Pública e o cidadão; Interacção transparente, cómoda, eficiente e eficaz com o cidadão; Maior conveniência e satisfação para o cidadão, que passa a disponibilizar de um só local virtual para aceder a serviços que antes eram oferecidos em locais fisicamente afastados; Promoção dos princípios democráticos e da participação pública, desencorajando problemas como a corrupção ao tornar a acção governativa mais transparente e, consequentemente, mais responsável; Disponibilidade e acessibilidade da informação; 19

20 Consistência da informação existente e diminuição da redundância, através da consolidação e integração de sistemas governamentais; Interoperabilidade entre sistemas da organização pública; Simplificação dos processos de negócio; Promoção da inovação de ferramentas e de serviços; Redução de custos operacionais e aumento das receitas e da produtividade na organização pública, devido à automatização de processos e à migração do papel para o electrónico, que elimina custos de impressão e diminui custos de armazenamento, transporte e busca de documentos; Aumento do desenvolvimento económico ao nível local, ao facilitar a criação de pequenas e médias empresas e ao promover as potencialidades turísticas de um determinado local. 3.5 Problemas Apesar das vantagens acima mencionadas, o e-government possui também um conjunto de problemas que poderão comprometer o sucesso da sua aplicação: implica custos que poderão ser proibitivos; poderá envolver uma elevada complexidade a nível técnico, legal e em termos de ensino e aproximação das tecnologias aos diversos grupos sociais (risco de info-exclusão); e existe a possibilidade de alguns funcionários da organização resistirem à mudança trazida pelo e-government com receio de perderem ou verem desvalorizados os seus postos de trabalho [8]. 4 Evolução histórica e-government ou e-gov, como é frequentemente conhecido, começa cada vez mais a assumir um papel de destaque e de relativa preocupação por parte de nações de todo mundo. Temos hoje um entendimento e conhecimento sobre este conceito, melhor que no ano passado e muito melhor que à vários anos atrás. 4.1 Mundo Em 1987, várias nações pertencentes à Internacional Council for Information Technology in Government Administration (ICA), discutiram pela primeira vez formas de oferecer um serviço prático, eficiente e dirigido para o cidadão numa conferência no Estoril, em Portugal. Em 1991 o browser da Internet fica disponível, e é quase que imediatamente usado para providenciar informação ao público em geral. Até nos seus primórdios já se visionava a Internet como uma ferramenta que poderia um dia providenciar transacções, e capaz de melhorar o serviço que o estado dispõe ao cidadão [17]. O termo e-government emergiu nos finais dos anos 90, mas a história da computação nas organizações governamentais pode ser traçada até aos primórdios do surgimento do primeiro computador. Podem até ser encontradas referências na 20

21 literatura ao uso das tecnologias de informação (TI) na governação, que remontam pelo menos até aos anos 70. Mas ao passo que essa literatura inicialmente abrangia o uso das TI de forma interna na governação, a literatura mais actual foca aspectos relativos ao seu uso externo, ou seja relativos aos serviços que são oferecidos aos cidadãos. O acesso às novas TI tornou-se essencial para o desenvolvimento. Governos podiam agora disponibilizar melhores serviços, mais rapidamente, com reduzido custo e de forma mais eficiente. As oportunidades para o cidadão de utilizar as novas tecnologias no trabalho, em casa e na sociedade aumentaram, permitindo o desenvolvimento quer dos indivíduos, quer da sociedade. Entre 1991 e 2003 as linhas telefónicas cresceram para o dobro e o acesso a computadores pessoais quintuplicou. No entanto à medida que os custos ficaram mais acessíveis à população, a maior revolução deu-se com o serviço celular móvel e a Internet. Os subscritores do serviço de telecomunicações móveis aumentaram cerca de 83 vezes e o número de utilizadores da Internet cerca de 151 vezes [13], [14], [15], [16]. Tabela 1. Evolução do acesso mundial as novas tecnologias % pm 2 em 2003 Linhas telefónicas Subscritores de telecomunicações móveis PCs Utilizadores da internet Assim como o termo e-commerce, o termo e-government surgiu com o boom da Internet. No entanto, o seu uso não deve ser entendido como limitado apenas à Internet e a sistemas desenvolvidos para uso directo pelos clientes e cidadãos. O e- Gov começou, inicialmente, como um campo prático em que se tentou ir de encontro aos novos desafios que a Internet trouxe, implementando novos sistemas de forma criativa. Por exemplo, nos Estados Unidos da América (EUA) o vice-presidente Al Gore (na altura) liderou o National Performance Review, que dava forte ênfase ao papel do e-government nos serviços federais. Historicamente os EUA foram o grande inovador e líder no que toca às iniciativas de e-government. Entre 1993 e 2001, o governo federal lançou cerca de 1300 iniciativas independentes. No entanto, existe uma certa preocupação nos EUA, pois os web sites governamentais focam mais em disponibilizar serviços e menos em facilitar o envolvimento cívico dos cidadãos. Os benefícios do e-government chegaram aos ouvidos das maiores potências internacionais. Em 1995 os (na altura) G7, definiram um programa on-line governamental, baseado no desejo de governos de todo mundo, com o objectivo de 1 Adaptado de [13] 2 População mundial (pm) = 6330 milhões 21

22 baixar os custos e melhorar os serviços disponibilizados através do uso eficaz e inovativo das TI, transformando assim a governação, para que na passagem para o novo século, a maior parte das tarefas administrativas fosse conduzida electronicamente. De facto, o intervalo de tempo revelou-se demasiado optimista, mas a esperança mantém-se de que o e-government traga os seus benefícios. Em Junho de 2000, foi aprovado pela comissão europeia o plano e-europe 2002, numa tentativa de acabar com a frustração pelo facto de os benefícios do e- Government estarem a ser obtidos de forma demasiado lenta. O plano tem como principal objectivo dar aos cidadãos acesso a informações cruciais e promover interacções on-line entre estes e o governo [18]. Todos os chefes de governo da União Europeia aceitaram o referido plano que tinha como meta diversas acções, das quais se destacam [18]: Documentação essencial (legal e administrativa), publicada de forma on-line até ao final de 2002; Promoção do uso de sistemas do tipo open-source no sector público e adopção das melhores práticas através da partilha de experiências pelos estados membros durante 2001; Promover o uso da assinatura digital até o final de 2001; Procedimentos administrativos on-line simplificados até o final de Portugal Desde 1991 que o estado português procura disponibilizar meios para que os cidadãos portugueses interajam de forma mais fácil com a administração pública, criando para isso, nesse mesmo ano, a rede pública INFOCID. Esta rede consistia numa base de dados integrada, usada na interacção entre os organismos do estado e o cidadão. Em 1996, é lançado pelo governo português a iniciativa nacional para a sociedade de informação; esta iniciativa focava-se principalmente no uso das TI na educação, no comércio electrónico e na abertura da administração pública ao cidadão. Também em 1996 é criada a Missão para a Sociedade de Informação (MSI). Esta missão tem como objectivo definir medidas e áreas prioritárias para o desenvolvimento da sociedade de informação. Após a divulgação em 1997 destas medidas e áreas chave foram levadas a cabo algumas iniciativas, com o objectivo de desenvolver planos operacionais de implementação. O ano de 1998 marca o início do lançamento do programa Cidades Digitais, com o objectivo de fomentar a cultura digital a nível local e regional, permitindo aproximar a administração e os serviços das pessoas, promovendo a competitividade, e melhorando a qualidade de vida das populações. Em 2000, este programa passa a ter a duração de 5 anos e recebe cerca de 300 milhões de euros financiados pela comunidade europeia e o governo português, pretendendo cobrir todo país e estimulando assim a inovação regional. O ano de 2000, coincidiu com a presidência portuguesa da União Europeia, e neste ano foi adoptado o plano de acção e-europe. Foi lançado o Programa Operacional para a Sociedade de Informação (POSI) cobrindo o período de 2000 a 2006 e com investimentos na ordem dos 625 milhões de euros comparticipados pela União Europeia. O POSI tem o objectivo estratégico de desenvolver as tecnologias de 22

23 informação, ajudar a promover a transição para um Portugal digital, e colocar os serviços públicos on-line. Em 2000 foi lançado também a Iniciativa Internet, que pretendia levar ao rápido crescimento do uso da Internet nas escolas, casas, empresas e Administração Pública. No mês de Fevereiro de 2001, o INFOCID é relançado como o Portal do Cidadão, possibilitando aos utilizadores acesso directo ao serviço público, podendo estes requisitar on-line diversos tipos de certificados. Em 2002 foi criada a Unidade para a Missão de Informação e Conhecimento (UMIC), com o objectivo de coordenar as actividades governamentais na área da sociedade da informação. A UMIC está encarregue de preparar, em conjunto com os diferentes ministérios, os planos de acção nacionais, iniciativas e programas para a sociedade de informação e para o e-government. Em 2003 o governo aprova o plano de acção para a sociedade de informação e o plano de acção para o e-government. O plano de e-government é parte integrante do plano de acção para a sociedade de informação que se torna assim o principal instrumento para a coordenação estratégica e operacional das políticas da sociedade de informação em Portugal. O grande objectivo estratégico do plano de e-government português é transformar o sector público para que este se focalize no cidadão, e colocar os serviços do sector público do país como uma referência a nível mundial [20]. O plano de 2003 tem como principais objectivos para o e-government em Portugal: Aumentar a satisfação com os serviços públicos; Aumentar os níveis de eficiência, reduzindo ao mesmo tempo os custos do governo e dos contribuintes; Aumentar a transparência da estrutura burocrática, aumentando assim a confiança do cidadão nos serviços públicos; Promover a participação do cidadão nos processos democráticos através da melhor disseminação da informação; Obter o reconhecimento internacional da qualidade do e-government português, fazendo com que os cidadãos portugueses se orgulhem dos serviços públicos do seu país. 5. Situação actual Na presente secção pretende-se analisar a situação actual dos governos, de alguns países, face ao seu nível de maturidade perante a implementação do e-government. Esta análise é concluída com um aprofundamento sobre a actualidade desta temática em Portugal. Os dados apresentados têm por base o estudo Leadership in Customer Service: Building the Trust [22]. 23

24 5.1 Mundo Actualmente, os governos que primam por uma boa performance referente a serviços prestados ao cliente centram-se em dois critérios: os resultados que produzem e a eficácia em termos de custos. O valor dos resultados obtidos é visto pela perspectiva do cliente, o principal beneficiário, e com a preocupação da eficácia em termos de custos, os governos não tentam apenas fazer as coisas certas, mas também da forma mais correcta. Estes governos possuem várias características em comum, das quais salientamos: a maximização do valor produzido para o público; a centralização no cidadão e focalização nos resultados produzidos; a flexibilidade e inovação que permitem adaptarem-se a novos desafios e oportunidades, tentando sempre melhorar o valor para o público; e o seu entusiasmo no serviço ao cliente, que é reflectido na paixão dos funcionários internos e stakeholders externos no suporte das missões da organização. Após a fase inicial da introdução do e-government nos países, a qual originou um desenvolvimento acelerado, actualmente os avanços têm sido mais lentos. A liderança no serviço prestado ao cliente tornou-se mais difícil de alcançar e o tempo que a implementação de estratégias que reflictam resultados perceptíveis tornou-se maior. O conjunto de países que têm a liderança em relação ao grau de maturidade do e- Government mantém-se constante, havendo ligeiras oscilações nas posições de ano para ano entre eles. Os líderes desses países partilham a paixão de serviço ao cliente e encontram-se a redefinir estratégias de forma a transpor o serviço para um outro nível. As interacções são concebidas de forma a construir uma base de confiança, na qual os cidadãos e as empresas vêem o valor que os seus governos produzem; e o objectivo dos governos é servi-los da melhor maneira possível. A liderança destes países é conseguida através da colocação dos cidadãos no centro de tudo. Para alcançar essa liderança existem quatro elementos fulcrais: uma perspectiva centrada no cidadão, um serviço multi-canal coeso, um serviço inter-governamental fluído e uma comunicação e educação pró-activa. Para uma perspectiva centrada no cidadão a informação tem que se encontrar toda envolta neste. Um serviço multi-canal coeso pressupõe um serviço rápido, eficiente e conveniente, independentemente do canal usado; e caso seja usado mais que um canal, estes têm que se encontrar inexoravelmente coordenados. Os vários departamentos do governo, quer a nível local, regional ou nacional, têm que proporcionar um conjunto de serviços integrados. Uma comunicação e educação próactiva notificam e instruem os cidadãos dos serviços que o governo disponibiliza e dos canais de interacção com esses serviços, melhorando a utilização destes pelos cidadãos. Na imagem seguinte, adaptada de um gráfico do estudo referido anteriormente [22], é apresentado um ranking da liderança em serviços ao cliente. 24

25 Fig. 3. Ranking da liderança em serviços prestados ao cliente A maioria dos países líderes encontra-se numa fase de reavaliação e redesenho de estratégias, não apenas com a preocupação de servir o cliente, mas também na criação de valor que perdure. Muitos começaram a alterar a sua infra-estrutura e implementar novos processos, alterações que vão desde a concepção de novos desenhos organizacionais, uma simplificação inflexível, reengenharia de negócio, a uma consolidação e incursão em serviços partilhados. Esses países introduziram muitos serviços que se encontram a par com os melhores do sector privado, usando tecnologias como Short Message Service SMS (Serviço de Mensagens Curtas), quiosques informativos e Interactive Voice Response IVR (Resposta de Voz Interactiva). Para realçar a forma como os governos estão a mudar as suas estratégias, refira-se que sete dos nove países líderes e desafiantes anunciaram ou pretendem anunciar novas estratégias centrais para os serviços, ao passo que apenas dois dos doze países seguidores e formativos anunciaram abordagens ousadas para o serviço ao cliente. Os dois países que se encontram na liderança que não anunciaram mudanças de relevo são os Estados Unidos da América e a França. A Espanha e o Reino Unido são os dois países seguidores que estão no ponto de grandes avanços. 25

26 5.2 Portugal De acordo com a Figura 1 apresentada anteriormente, Portugal encontra-se dentro do grupo dos países formativos, mas isso não significa que não estejam a haver avanços em termos de maturidade do e-government. O ponto central da política económica é o Plano Tecnológico para o Desenvolvimento da Sociedade de Informação. Este plano proporciona o meio como tornar Portugal num player dinâmico da economia global e as suas medidas encontram-se enquadradas segundo três eixos de acção: qualificar os portugueses para a Sociedade de Informação; superar o choque tecnológico; e impulsionar a inovação. Em Julho de 2005, foi lançado o plano Ligar Portugal que tem como principais objectivos melhorar a conectividade e a acessibilidade dos portugueses, pois apenas 46% são utilizadores assíduos da Internet. Do estudo efectuado [22], Portugal teve a maior taxa de pessoas a responder que não sabiam se era fácil ou não contactar com o governo via canais como a Internet ou . Das pessoas que responderam que não era fácil contactar o governo por esses canais, a maioria não sabia usar a Internet ou o . Para fazer frente a este cenário, o governo providenciou a todas a escolas um acesso DSL de banda larga à Rede Ciência, Tecnologia e Sociedade e tenciona duplicar o número de espaços públicos para acesso à Internet. É importante realçar também iniciativas como: a Empresa na Hora, criada em Junho de 2005, que demonstra a colaboração inter-governamental para providenciar um serviço através de um ponto de acesso único para a criação de uma empresa em menos de uma hora; e o Portal do Cidadão, lançado no primeiro trimestre de 2004, que agora oferece mais de 700 serviços disponíveis 24 horas em 7 dias por semana, que a partir de Fevereiro de 2005 passou a disponibilizar acesso multi-canal através de SMS e WAP (protocolo usado por telefones móveis e PDAs). Uma iniciativa que terminou a prova de conceito em Março de 2006, foi o Cartão do Cidadão que pretende reunir num único cartão: o Bilhete de Identidade, os cartões de Eleitor, de Contribuinte, da Segurança Social e do Serviço Nacional de Saúde. Este cartão não serve apenas como um meio físico que o cidadão pode apresentar para sua identificação, mas também um meio de identificação digital, com elevada segurança, para este se identificar e autenticar nas interacções que efectuar electronicamente. Portugal ainda se encontra a estabelecer os fundamentos para chegar a um nível elevado na prestação de serviços ao cliente, pois a colaboração necessária interdepartamental encontra-se apenas no início; e não é visível se o governo vai redesenhar as suas estruturas e processos para assegurar um sucesso a longo prazo. 6. Desafios futuros Os governos que futuramente queiram ter uma boa performance no serviço prestado ao cliente terão que reinventar o serviço completamente. As transformações não irão ocorrer apenas nos mecanismos que disponibilizam os serviços, mas nos próprios serviços e nos resultados que eles produzem. A liderança será definida através da prestação de serviços, que construam uma base de confiança entre os cidadãos e o governo. O governo terá que ser visto como uma 26

27 instituição inviolável, que está agir no melhor dos interesses do cidadão, permitindo que estes tenham a melhor qualidade de vida possível e que vejam o valor que o governo proporciona. O grande desafio dos governos encontra-se relacionado com as lacunas existentes, devido à estrutura e organização inerentes dos governos, assim como à cultura do país, e às atitudes e percepções enraizadas nos seus cidadãos. A constante evolução e descoberta de canais de interacção abre portas a várias formas de comunicação do governo com os seus cidadãos, tornando a gestão dessas comunicações mais complicadas para o governo. Resolver os receios de privacidade dos cidadãos, de forma a permitir que os governos possam começar a responder às suas necessidades, também é um obstáculo importante a ultrapassar, assim como permitir o acesso a grupos excluídos e a pessoas desfavorecidas, evitando a exclusão de qualquer cidadão. A gestão dos custos de implementação da mudança das infra-estruturas e dos sistemas associados para acompanhar os avanços das tecnologias também é um problema emergente. Muitos governos têm problemas em transferir as suas conexões históricas e informais em modelos organizados, transformando-os numa comunicação intergovernamental coesa. Essa comunicação começa a desmoronar-se quando se encontra sobre pressão. Outro desafio surge quando os governos têm a noção que o cidadão é centro de tudo, implementando métricas ao nível do serviço e medindo a satisfação do cidadão face ao que estes pedem, mas esquecendo-se de considerar o que estes realmente necessitam. Espera-se que futuramente, por volta de 2010, se verifique, na perspectiva dos cidadãos e empresas, uma eficácia dos governos na resolução satisfatória das suas necessidades. Isso é conseguido através da prestação de serviços de uma forma reactiva e transparente, evitando questões redundantes ou ajudando apenas com soluções parciais e oferecendo serviços mais personalizados de uma forma pró-activa. A nível europeu é importante a aferição do desempenho e a medição dos impactos e benefícios, que podem estimular a tomada de acções e a partilha de experiências, incluindo negativas, com outros países. A criação de mecanismos para a partilha de experiências e conhecimentos também é um ponto crucial de evolução. Actualmente já existe a egovernment Good Practise Framework [23], mas métodos mais eficazes para aprendizagem deviam ser desenvolvidos para melhorar a eficiência da grande quantidade de informação já recolhida [24]. Conclusão O e-government é uma realidade cada vez mais incontornável e promete continuar a revolucionar a forma como os cidadãos e as empresas interagem com o governo e com a administração pública. Apesar das vantagens atractivas que possui, a 27

28 implementação de e-government numa organização pública deverá ser antecedida por um estudo que permita antecipar os obstáculos que necessariamente irão surgir e por um planeamento cuidado e rigoroso. Depois de implementado, é essencial que a organização monitorize o seu estado de maturidade e que procure formas de o melhorar. Desde o aparecimento, pela primeira vez nos finais da década de 90, do conceito de e-government, já muito foi feito. Os governos, conscientes dos benefícios que advém do e-gov, tentam desde à muito reunir as condições necessárias para a viabilização e afirmação efectiva deste. Acima de tudo, é importante que o conceito de e- Government se materialize na oferta de melhores serviços, mais rápidos, mais próximos e com menos custos. Visão estratégia, vontade política, e a tecnologia adequada são os ingredientes para que se estabeleça genuinamente um governo das pessoas, pelas pessoas e para as pessoas; são esses os objectivos dos governos de todo mundo e é esse, igualmente, o desejo de Portugal. Analisando os países que se encontram na liderança no serviço prestado ao cidadão, verifica-se uma grande preocupação no valor que estes serviços fornecem a este. Estes países encontram-se a redefinir as suas estratégias, infra-estruturas e processos de forma a não só disponibilizarem melhores serviços aos cidadãos, mas também com a preocupação de construírem uma base de confiança com estes. O próprio conceito de serviço encontra-se em transformação. Actualmente, já se verifica uma preocupação por parte dos países na avaliação de desempenho e na medição de benefícios e impactos dos seus serviços, assim como na partilha de experiências entre estes. No entanto, ainda existe muito por onde melhorar, pois ainda não existem métodos eficazes para a aprendizagem baseada na grande quantidade de informação já recolhida. Referências 1. e-government Como poderá o sector público assegurar um melhor acesso a melhores serviços, Deloitte, Setembro Racionalização dos Serviços de TI na Administração Pública, Diogo Assunção, HP, Setembro Oracle Uma Perspectiva Estruturante para o e-government, Luís Moreira 4. e-government, Amândio de Sousa, Novis 5. Portuguese e-government Initiatives. Villages, Towns, Cities and the Constitutions ; Teixeira, C.; Santos, J.; Pinto, J.; Martins, J.; IEETA 6. Ponto de Situação do e-government em Portugal, APDSI, Novembro e-government, Wikipedia, Último acesso: e-government. Um Novo Modelo de Administração Pública ; e_motion, Edição nº 10 de Junho de Qualidade e Eficiência dos Serviços Públicos. Plano de Acção para o Governo Electrónico, UMIC 10. Local e-government A Governação Digital na Autarquia, Sociedade Portuguesa de Inovação,

29 11. Tecnologias de Informação e Comunicação no e-government, Nobre, F.; Barruncho, M.; IT-GEO, Communications of AIS, Volume 15, Article 39,, Introducing E-Gov: History, Definitions, and Issues, Å. Grönlund e T. A. Horan, Junho de UN Global E-government Readiness Report 2005: From E-government to E- inclusion, Department of Economic and Social Affairs 14. UN Global E-Government Readiness Report 2004: Towards access for opportunity, Department of Economic and Social Affairs 15. UN Global E-government Survey 2003, Department of Economic and Social Affairs, Division for Public Administration and Development Management 16. UN World Public Sector Report 2003: E-Government at the Crossroads, Department of Economic and Social Affairs 17. ICA National Governments Are Moving into a New Stage in Electronic Government. How Fast Will They Evolve?, Setembro de 2002, Francis A. McDonough 18. Kable Europe s readiness for e-government, 2000, William Heath 19. GISmédia, e-government: uma miragem?, Número 17 Abril de 2003, Dr.ª Maria do Carmo Rodrigues Lucas 20. idabc,egovernment in the Member States of the European Union, François- Xavier Chevallerau, Último acesso: , 21. NovaBase, E-Government - Factor de inclusão ou exclusão social?, , Último acesso: , 22. Leadership in Customer Service: Building the Trust, Accenture, Último acesso: , 23. egovernment Good Practise Framework, European Commission, Último acesso: , 24. i2010 egovernment Action Plan, Comission of the European Communities, Último acesso: , ights/comm_pdf_com_2006_0173_f_en_acte.pdf 29

30 30

31 Bioinformática Daniel Albuquerque Sara Marques Vladimiro Sá Seminários Faculdade de Engenharia da Universidade do Porto Licenciatura Informática e Computação Dezembro 2006 Abstract: A actual rapidez do desenvolvimento da ciência aliada à constante necessidade de se saber cada vez mais sobre cada ser vivo, as suas origens, desenvolvimento e funcionamento, levaram à procura e à criação de novas ferramentas para obtenção, análise e exploração deste tipo de informação. Sendo a Informática uma tecnologia emergente, e com grande potencialidade, optou-se por aliar esta ferramenta à Biologia, como uma ferramenta de apoio, exploração e estudo da ciência, surgindo assim a Bioinformática. Hoje em dia a Bioinformática é um assunto que está em voga, do qual grande parte da população já ouviu falar. Mas na realidade a maioria das pessoas não tem a noção exacta e correcta do que é. Este artigo vem de certa forma combater a falta de informação e divulgação nesta área, sendo este o seu objectivo principal. Assim, este artigo foi elaborado de forma a um potencial leitor que não se encontre enquadrado no assunto, perceba os conceitos básicos que a Bioinformática comporta, e de uma forma geral as áreas e metodologias e a ela ligadas. O artigo explora o conceito de Bioinformática, o seu papel na sociedade, o que a Informática pode trazer de novo para os estudos científicos na área da Biologia, o seu desenvolvimento nesta área, as suas aplicações e expõe também alguns exemplos práticos da sua aplicação. Toda a informação contida neste documento é produto de pesquisas efectuadas pelos seus autores no sentido de iluminar o seu próprio conhecimento nesta área, bem como o do leitor. Como resultado além da exposição de todo o conhecimento base que este tema comporta, são também traçadas diversas conclusões relativas ao mesmo, sendo o leitor incentivado a retirar as suas próprias conclusões e a dar continuidade a um trabalho de pesquisa e envolvência relativamente a este assunto. Keywords: Bioinformática, Biologia, Informática, Folding de proteínas, Computação Distribuída. 1. Introdução A constante necessidade de se aprofundar cada vez mais o conhecimento nas diferentes áreas científicas, e o aumento da complexidade destas, tem levado ao uso, cada vez mais frequente, das novas tecnologias como um meio de apoio à investigação 31

32 e estudo. A Biologia não é uma excepção, tal como em qualquer outra área científica, usa os novos meios disponibilizados pela a evolução tecnológica. Uma das disciplinas da Biologia que se encontra em constante evolução e aumento de complexidade é a Genética, e como tal, a Informática foi colocada ao serviço desta, originando assim a Bioinformática. A Bioinformática consiste na criação de algoritmos, técnicas computacionais e estatísticas, de forma a auxiliar a resolução de problemas com origem na gestão e análise de dados biológicos. Foi o crescente interesse e curiosidade que esta área tem suscitado nos últimos tempos, bem como a falta de informação existente, que levou à escolha deste tema para a elaboração do presente artigo no âmbito da disciplina de Seminários do 5º ano da LEIC, leccionada na FEUP. Sendo a Bioinformática uma área bastante vasta, optou-se neste artigo, não só por explorar os conceitos base ligados à Bioinformática como uma ciência geral, mas também expor e aprofundar o conhecimento do leitor relativamente a uma das soluções proporcionadas por ela, nomeadamente o O Folding de proteínas consiste na formação da proteína já com todas as suas capacidades funcionais operacionais. Como esta passa por muitos estados e porque é um processo extremamente rápido é gerada muita informação, tendo esta de ser tratada, estudada e armazenada. O problema que se criou é que já não existiam meios eficientes (e cada vez iriam existir menos) para tratar toda a informação gerada. Um simples computador, ou mesmo um super computador não era capaz de tratar a informação, era necessária uma maior capacidade de processamento. A solução encontrada foi a Computação Distribuída. Esta consiste na utilização de vários computadores para o mesmo fim, juntando as capacidades de cada um deles para contribuírem para o mesmo objecto, criando-se assim um verdadeiro Super Computador que utiliza todas as capacidades e potencialidades dos vários computadores. O objectivo do é assim a utilização da Computação Distribuída no Folding das proteínas, usando para isso os computadores pessoais dos vários milhões de internautas. O é claramente o futuro do estudo da formação das Proteínas, sendo uma ideia extremamente inovadora e simples, pois só requer a instalação de um programa e uma ligação à Internet. É também um exemplo bem sucedido de uma aplicação de uma ciência (Bioinformática) que ganha a cada dia mais adeptos, e que se encontra cada vez mais em expansão, não só por isto, mas também por corresponder de uma forma eficaz e mais eficiente às necessidades manifestas a diversos níveis pela Biologia. Ao longo do artigo, a atenção do leitor é assim direccionada para o conceito, desenvolvimento e aplicações da Bioinformática, bem como para a problemática adjacente ao Folding de Proteínas e a solução que a Bioinformática proporciona. 2. O que é a Bioinformática Apesar de apenas no século XIX a Biologia ter sido reconhecida como uma área coerente de conhecimento, a tentativa de conhecer e compreender o mundo vivo que 32

33 rodeia o homem através da ciência remonta à Grécia antiga. Como ciência, diz respeito às características e comportamentos de organismos, à sua origem e à forma como interagem uns com os outros e com o ambiente. A Informática por outro lado diz respeito às ciências da informação e ao estudo e análise ou tratamento de informação. Apesar de ter uma abrangência muito maior interessa-nos apenas a vertente de análise e processamento de informação recorrendo a computadores. Com as constantes evoluções tecnológicas, cada vez mais se tornaram maiores as necessidades em termos de armazenamento e tratamento de enormes quantidades de informação e de dados. Com o sucesso da Biologia Molecular nos anos 80, nomeadamente no que diz respeito ao estudo de ácidos nucleicos (ADN e ARN) e de proteínas, e com a explosão da quantidade de informação gerada, esta necessidade tornou-se ainda mais patente e algo que não podia ser ignorado. O uso de algoritmos próprios e de bases de dados vieram dar resposta a esta necessidade, tornando possível o tratamento e a utilização dos dados para os propósitos requeridos de uma maneira rápida e eficaz, algo que com a evolução da capacidade de processamento e da informática em si tem cada vez mais peso em projectos nesta área. A Bioinformática consiste então no recurso a conhecimentos e instrumentos tecnológicos como computadores para facilitar a análise e obtenção de resultados de projectos enquadrados no domínio da Biologia. A informática tornou-se numa ferramenta essencial para o desenvolvimento da Biologia tal como a conhecemos actualmente. Alguns autores fazem uma distinção entre Bioinformática e Biologia Computacional. Para estes a Bioinformática corresponde à parte da criação e aplicação de algoritmos a bases de dados recolhidas na Biologia, enquanto que a Biologia Computacional consiste no teste ou aplicação de teorias ou hipóteses com base em dados experimentais ou simulados. Em qualquer dos casos estas definições estão interrelacionadas e ao longo deste artigo não irá ser feita esta distinção entre termos. Estas são definições ainda pouco exploradas, e daí surge a sua ambiguidade e falta de clareza. 3. História da Bioinformática Foi na década de 60 do séc. XIX que Mendel começou a dar os primeiros passos na área que hoje chamamos de Genética, mas só em 1905 é que o termo surgiu pela primeira vez. Entre a descoberta dos genes e cromossomas, dos mapas genéticos, das mutações em genes, passando pela recombinação genética, pelo descobrimento do ADN e da sua dupla hélice bem como do ARN, o conhecimento nesta área evoluiu vertiginosamente, em especial ao longo dos últimos 30 anos. Com a evolução da computação nos anos 60 e 70, e devido aos avanços e descobertas consideráveis na área da genética que se faziam sentir, a computação foi colocada ao serviço do estudo da sequenciação de ADN. No entanto, ainda não seria nesta altura que a Bioinformática iria surgir. 33

34 Apesar da estrutura do ADN ter sido descoberta em 1953, só no final dos anos 80, é que se conseguiu ler a informação que esta continha. Foi nesta altura que a Computação atingiu um nível de maturidade suficiente para permitir a sequenciação automática de ADN. A Computação estava então pronta para dar uma resposta ao nível das necessidades criadas pela enorme quantidade de informação que havia para gerir, as quais se traduziam quer ao nível da eficácia e eficiência das bases de dados como ao nível dos métodos de análise da informação. Com esta nova etapa, surgiu a Bioinformática. Ao mesmo tempo que a Computação deu este salto, surgiu a Internet, a qual juntamente com a implementação de bases de dados moleculares contribuiu para a evolução da Bioinformática. Já em meados da década de 90, a Bioinformática deixa de estar tanto orientada às aplicações, passando a ser uma disciplina de um maior carácter investigativo, a qual usa actualmente as ferramentas computacionais para a realização de estudos em várias áreas da Genética e da Biologia. Com esta evolução, a crescente necessidade de expandir conhecimento levou à realização de inúmeras conferências, à criação de revistas e websites, bem como a criação de Centros, Institutos e Bases de dados, e à utilização de redes de telecomunicações como suporte. Tem sido através destes, que o conhecimento nesta área se tem vindo a expandir e a divulgar ao longo dos últimos anos, proporcionando também a partilha e troca de informação entre os diversos investigadores. Assim, o que inicialmente era uma ferramenta para ajudar o cálculo de informação genética, e mais tarde uma solução para os problemas de armazenamento e análise das grandes quantidades de informação, é hoje em dia mais do que uma mera ferramenta de apoio. A Bioinformática é actualmente uma disciplina com as suas próprias linhas de investigação e que está ligada ao conjunto de todas as aplicações para computador ligadas às ciências biológicas. Esta tem vindo a contribuir para a descoberta e expansão de conhecimento na área da Biologia, tendo sido um dos marcos mais importantes da sua história a descoberta da sequência do genoma humano em Actualidade O papel da informática na biologia tem vindo a influenciar muitas descobertas científicas. O uso da capacidade de processamento dos computadores permite analisar mais informação e tratar muitos mais dados, melhorando a fidelidade e viabilidade dos resultados. A informatização que ocorre a nível mundial permite uma maior recolha de informação em bases de dados que começam a ser analisadas com novos algoritmos que estão a ser desenvolvidos. A quantidade de informação existente em bases de dados tem crescido exponencialmente e apenas a capacidade computacional actual permite analisar e obter resultados que de outra forma levariam anos a alcançar. A bioinformática tem também facilitado aos investigadores testar novas teorias através da simulação de processos e evolução biológica. Com base em alguns dados experimentais ou teóricos é possível simular todo o processo de evolução de uma 34

35 determinada célula ou de um vírus. Os investigadores chegam assim a conclusões de forma mais rápida, barata e menos penosa do que seria necessário para implementar um sistema de simulação real dentro de um laboratório com todos os componentes necessários. Várias doenças estão a ser investigadas através da bioinformática. Novos projectos têm surgido e várias empresas têm-se associado com o intuito de descobrir novos tratamentos para os seus pacientes, novos medicamentos e novas formas de medicação e obter mais informação sobre o universo do corpo humano. Actualmente existem muitas áreas de aplicação da bioinformática, entre as quais as seguintes: Análise de sequências genéticas Biologia evolucionária Análise de proteínas Análise de mutações cancerígenas Apesar da melhoria da capacidade dos computadores, a necessidade computacional está muito além da actual oferta de mercado quando se trata de super PCs. Esta lacuna tem vindo a ser ultrapassada com o uso de Grig Computing [17] que se baseia no paradigma de Programação Distribuída [18]. Este conceito baseia-se na existência de milhares de computadores ligados entre si pela Internet. Se juntarmos todos estes computadores para efectuar uma tarefa conjunta podemos criar um super - computador que resolva os problemas de uma forma muito mais célere. A programação distribuída tem como objectivo a divisão de um grande problema em problemas mais pequenos que podem ser distribuídos por cada um dos computadores dos utilizadores da Internet. Existem algumas aplicações que usam desde já esta possibilidade, é o caso do [7], que pretende aprofundar o estudo sobre proteínas ou do GeneGrid [9] que pretende disponibilizar à comunidade científica uma plataforma de desenvolvimento e de estudo partilhada. A bioinformática tem permitido efectuar avanços científicos muito importantes na descoberta de novos medicamentos e doenças melhorando a vida humana e todo o conhecimento científico mundial. 5. Folding de Proteínas 5.1. A proteína e o Folding A proteína é um composto orgânico sintetizado por organismos vivos. Sendo grandemente responsável pela estrutura das células do corpo, tem também um papel importante na parte hormonal do organismo, bem como na sua defesa. Esta é formada por milhares ou até mesmo milhões de aminoácidos. Uma variação, por mais pequena que seja, do número de aminoácidos ou da sequência destes, dá origem a proteínas diferentes. Os aminoácidos encontram-se ligados entre si através de ligações peptídicas, formando assim uma estrutura molecular cadeia de aminoácidos ou 35

36 peptídeo. Relativamente à estrutura molecular da proteína, esta pode ser classificada em quatro tipos, os quais são referidos de seguida: Estrutura Primária: A estrutura primária é o nível mais simples pois neste encontramos os aminoácidos alinhados numa cadeia linear, sem uma orientação espacial específica da molécula. É também o nível mais importante, pois vai ser a partir dele que o arranjo espacial da molécula vai ser feito. Estrutura Secundária: Na sequência primária da proteína, os aminoácidos que se encontram próximos uns dos outros, encontram-se alinhados/organizados espacialmente, são as relações que os aminoácidos próximos estabelecem uns com os outros que constituem a estrutura secundária. Estrutura Terciária: A estrutura terciária consiste na relação e organização de todos os aminoácidos, ou seja é a forma como todos os aminoácidos que constituem a molécula estão organizados espacialmente. Este estado é caracterizado pelo enrolamento da cadeia de aminoácidos da Estrutura Secundária, sendo também o responsável pela actividade biológica da proteína. Estrutura Quaternária: É a estrutura terciária de uma proteína que contenha mais do que uma cadeia de aminoácidos. Como a simples sequência da proteína não mostra qual a sua função e a forma como esta a exerce, a proteína passa pelas estruturas mencionadas anteriormente. Assim a formação de proteínas já capazes de exercer a sua actividade biológica é designada por Folding o qual vem do termo em inglês fold, que significa enrolar ou dobrar. Este termo deriva da Estrutura Terciária da proteína. Se uma proteína encontra um ambiente hostil corre o risco de perder a sua forma, ou seja os aminoácidos podem perder a sua organização espacial, quando isto acontece, ocorre o desenrolamento ou o unflod da proteína e a proteína fica apenas com a sua Estrutura Primária. A mal formação das proteínas (misfold) pode originar doenças como Alzheimer, Cancro e BSE. Como se pode constatar, o estudo das proteínas, da sua formação e das suas funções, é extremamente importante para o Homem, pois não só permite conhecer melhor a forma como estas actuam no organismo, mas também porque permite o estudo de soluções para combater muitas das doenças que hoje em dia ainda permanecem sem cura O Problema Sendo o estudo das proteínas muito importante para o avanço na luta contra determinadas doenças, bem como na área da Nanotecnologia para o desenvolvimento de máquinas que desempenhem funcionalidades semelhantes às das proteínas, é necessário que cada vez mais o conhecimento da forma como as proteínas se formam e funcionam aumente. O estudo do folding das proteínas é assim essencial. O problema principal subjacente na análise e estudo do folding é o tempo. O processo de folding de uma proteína pode ser de tal forma rápido, que demore menos de um milionésimo de segundo, o que parece pouco, mas em termos computacionais 36

37 vai ser muito. O problema que acontece é que um CPU demora um dia para simular um nanossegundo, e por sua vez a proteína forma-se na escala dos dez mil nanossegundos, portanto iria demorar dez mil dias (trinta anos) para que um CPU conseguisse simular o folding de uma proteína, o que é muito tempo. A razão pela qual é um processo moroso deve-se ao facto de a proteína poder passar por muitos estados até ficar na sua forma final. O que acontece ao utilizar apenas um PC para desenvolver o folding de uma proteína é o mesmo que utilizar uma estrada com apenas uma via, mas cheia de trânsito. Por muito boa ou nova que a estrada seja, se houver uma quantidade de tráfego muito intensa, os veículos ficam impossibilitados de se movimentarem com rapidez. Da mesma forma ao utilizar apenas um PC para fazer o folding de uma proteína, por muito bom e extremamente rápido que seja, acaba sempre por se tornar um processo extremamente moroso A Solução Utilizando a comparação efectuada na secção anterior, a solução para a estrada movimentada seria aumentar o número de vias de viação, isto iria fazer com que o trânsito fluísse de forma muito mais rápida. Passando esta solução para termos computacionais, teríamos a Computação Distribuída e a Computação/Processamento Paralelo, ou mesmo a utilização de supercomputadores. No caso do a solução adoptada foi a primeira, pois apesar da Computação/Processamento Paralelo permitir uma comunicação muito mais rápida entre processadores (os quais se encontram todos no mesmo PC), o facto de possuir muitos processadores torna mais difícil a implementação de programas. Em relação ao uso de supercomputadores, a velocidade dos processadores que constituem o supercomputador é comparável à dos PCs normais de hoje em dia. Além disto um supercomputador é constituído por centenas de processadores que se encontram ligados, e o necessita de centenas de milhares de processadores. Pelo que mesmo que se utilizassem todos os supercomputadores existentes, os ciclos obtidos por estes seriam menos do que aqueles que são obtidos através dos computadores pessoais que utilizam o Assim utilizando a Computação Distribuída, quanto maior for a quantidade de PCs a utilizarem o mais vias de simulação de folding de proteínas vão existir, logo o avanço do conhecimento nesta área vai ser maior. Através da utilização do o trabalho é dividido pelos processadores de uma forma inovadora através de uma velocidade praticamente linear e crescente no número de processadores. Isto permite que com a utilização de cerca de cem mil processadores seja possível simular o folding de proteínas em apenas alguns milissegundos Computação distribuída A computação distribuída consiste na utilização de dois ou mais computadores, que se encontram ligados através de uma rede, de forma a realizarem uma determinada tarefa em conjunto. Ao unir os diversos computadores para que estes de uma forma conjunta 37

38 partilhem as suas capacidades com o intuito de melhorar a performance de execução de uma determinada tarefa, é criado o chamado sistema distribuído. As tarefas são feitas de uma forma simples e transparente, como se estivesse apenas um único computador centralizado responsável por levar acabo a tarefa. Além da subdivisão de tarefas a Computação Distribuída permite a repartição e a especialização das tarefas computacionais conforme a natureza da função de cada computador. Um dos grandes objectivos do uso da Computação Distribuída é ligar os utilizadores e recursos de uma forma transparente, aberta e que contenha escalabilidade. O que faz com que o sistema seja mais tolerante a falhas. Ainda assim este tipo de solução contém desvantagens. Se não for devidamente planeado, o Sistema Distribuído pode fazer com que a confiança depositada neste diminua, devido à possibilidade de no caso de um nó ficar indisponível venha afectar outros nós, provocando também a sua inacessibilidade. Para além disto o diagnóstico e resolução dos problemas são mais difíceis, porque a análise do problema requer inspeccionar vários nós na rede, bem como a inspecção das comunicações entre estes. Deve-se ter também em conta que a organização da interacção entre computadores é um aspecto de extrema importância na Computação Distribuída. É importante que o protocolo e o canal de comunicação não contenham ou usem informação que não seja compreendida por certas máquinas, para que o sistema possa ser utilizado pelo maior número e tipo de computadores diferentes. Relativamente à arquitectura, no caso do o Modelo de Computação Distribuída usado é o modelo Cliente/Servidor. Onde o Cliente contacta o Servidor, o Servidor envia informação para o Cliente, o Cliente trabalha sobre esta informação e posteriormente envia os resultados para o Servidor. A carga computacional é repartida em partes chamadas unidades de trabalho. Cada computador fica responsável por trabalhar com determinadas unidades de trabalho, sempre que estiver idle trabalha os dados em background. Quando a unidade de trabalho estiver pronta e assim que existir uma conexão activa à Internet, os resultados são enviados para o servidor. Os cientistas e os pesquisadores têm assim acesso à base de dados de conhecimentos criada a partir da informação proveniente dos milhares de computadores que utilizam o O é um projecto de computação distribuída, foi lançado no ano 2000 e é actualmente gerido pelo Departamento de Química da Universidade de Stanford. É um projecto que para avançar exige uma continuidade nos resultados obtidos, isto porque para haver uma evolução de conhecimento é necessário ter acesso a todo o historial de resultados. O objectivo é o de compreender melhor o desenvolvimento de certas doenças como Alzheimer, Cancro, Parkinson entre outras, através de simulações de folding de proteínas (e de outras moléculas) e das suas deformações. Estas simulações requerem um poder de computação extraordinário, e para tal recorreu-se ao uso de Grid Computing. O problema foi assim dividido por milhares de computadores que vão resolvendo pequenos problemas e assimilando passo a passo as peças de um enorme puzzle. Até ao momento já foram obtidos diversos resultados 38

39 como a descoberta de novos métodos de desenho computacional de medicamentos ou a conclusão de um estudo sobre cancro. Estão ainda em execução dezenas de projectos conjuntos com a Universidade de Stanford que se pensam revolucionar todo o conhecimento científico actual. Ao doar a capacidade inutilizada do computador, o cidadão estará assim a contribuir de uma forma simples e segura (troca de informação segura, e utilização de assinaturas digitais) para o avanço da ciência, tudo isto através da simples execução de um programa que em troca aumenta de uma forma extraordinária a velocidade de simulação do folding de proteínas. Futuramente todos os jogadores de uma Playstation 3 poderão também auxiliar esta causa, através da instalação nas suas máquinas do programa cliente do que neste caso não se denomina de mas sim O objectivo deste é que o jogador enquanto não está a jogar deixe a sua playstation ligada a correr o assim o jogador contribui de uma forma activa gastando apenas um pouco de electricidade. O contributo vai ser de tal forma grande que é estimado que se existirem dez mil Playstation 3, o projecto consiga chegar à velocidade de simulação dos petaflops (10 15 FLOPS - Floating point Operations Per Second). 6. Conclusão A Bioinformática é hoje em dia uma importante ferramenta para o desenvolvimento científico, visto aumentar muito as capacidades de processamento de informação e proporcionar a obtenção mais rápida de resultados necessários para a continuação de projectos de investigação científicos. A sua importância tem vindo a ser cada vez mais significativa e toda a comunidade reconhece o seu valor e importância no desenvolvimento científico a nível mundial. A entrada na vertente da computação distribuída permitiu aumentar o reconhecimento da população para esta ciência, que de outro modo, esta estaria limitada às paredes de um laboratório de investigação, não tendo a exposição devida que tanto merece. Este reconhecimento aumentou também o investimento nos projectos de investigação melhorando as condições de investigação. É ainda importante referir, que cada um de nós pode contribuir para o avanço científico, se tão simplesmente adoptar uma das várias soluções proporcionadas pela Bioinformática. Por isso considere a utilização de um destes programas, não se esqueça que um pequeno gesto seu, pode contribuir para fazer a diferença em alguém cuja vida depende deste tipo de investigação. 7. Bibliografia [1] [2] [3] 39

40 [4] [5] [6] [7] [9] [10] [11] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] 40

41 Linguagens de Programação Emergentes Filipe Coelho 1, Guilherme Capela 1, e João Pinto 1 1 Faculdade de engenharia da Universidade do Porto, Portugal Resumo. O presente artigo foi elaborado no âmbito da disciplina de Seminários e tem como propósito efectuar a análise e avaliação de Linguagens e Paradigmas de Programação recentes, bem como futuros desenvolvimentos nesta área. O trabalho foi realizado através da consulta de vários locais da web, tais como instituições de ensino, entidades envolvidas nesta actividade, fóruns de discussão e enciclopédias online. As linguagens de programação escolhidas (Ruby, AspectJ e F#) foram abordadas nos seus paradigmas respectivos (Programação Orientada a Objectos, Programação Orientada a Aspectos e Programação Multi-Paradigma, em particular o paradigma Funcional). Desta forma foram apresentadas as características, os objectivos e os conceitos emergentes dessas linguagens no seio da sua área aplicativa. Após uma breve introdução sobre as linguagens, foram analisados alguns casos de aplicação, e algumas considerações acerca do seu desenvolvimento e futuras evoluções. Concluiu-se que inovações introduzidas nestas linguagens procuram sobretudo tornar a programação mais intuitiva e dinâmica, sem que tal afecte seriamente o desempenho das aplicações desenvolvidas nas mesmas. As novas plataformas revelam-se assim o elo de ligação entre as várias linguagens nelas assentes ao permitirem a partilha de código, o que possibilita uma maior interoperabilidade entre estas. Palavras-chave: linguagens de programação emergentes, F#, Ruby, AspectJ, programação orientada a aspectos, programação orientada a objectos, multiparadigma. 1 Introdução Escolhemos três linguagens de programação que demonstram as recentes inovações introduzidas nesta área. Nesta secção, será efectuado um overview sobre as suas principais características. 1.1 Ruby KA linguagem Ruby é mais uma das linguagens desenvolvidas segundo o paradigma da Programação Orientada a Objectos (POO). Criada por Yukihiro Matsumoto (conhecido pela comunidade como Matz ) em 1995, esta linguagem foi influenciada em grande parte pela linguagem Perl, bem como por Lisp e Smalltalk, embora estas últimas numa escala menor. 41

42 A sua semelhança com a linguagem Python, ao nível da sintaxe, é considerável, mas a linguagem Ruby é substancialmente mais complexa, dado que se trata de uma linguagem pure OOP (pura POO), isto é, segue o conceito de que tudo é um objecto, mesmo ao nível dos elementos base (int, char, entre outros). Sendo uma linguagem de scripting, o código pode ser alterado em runtime. Por exemplo, é possível adicionar métodos a uma classe, ficando estes imediatamente disponíveis para utilização, sem necessidade de recompilar código, como acontece com outras linguagens. A linguagem Ruby suporta programação procedimental, recorrendo a um mecanismo interessante: as funções passam a pertencer ao objecto Object, do qual derivam todas as outras classes. Desta forma, as funções são na realidade métodos, mas tal é transparente para o programador. Além de incluir funcionalidades presentes em linguagens populares, como garbage collector, possui ainda algumas características menos comuns mas relevantes. A sua sintaxe suporta closures, semelhantes às anonymous classes de Java, representam blocos de código que podem ser passados a métodos. A visibilidade (scope) das variáveis é definido ao nível da sintaxe, permitindo restringir ao expandir a sua utilização a outras classes e/ou métodos. De notar ainda o seu mecanismo de threading, o qual é independente do sistema operativo, permitindo assim multithreading mesmo quando o sistema operativo não o suporta. Uma das características mais significativas da linguagem Ruby é sem dúvida alguma ser dinamicamente tipada. Ao contrário de linguagens como C# e Java, em que o tipo de uma variável é apenas definido na sua declaração, na linguagem Ruby os tipos estão associados não à variável em si, mas ao seu conteúdo. O tipo de uma variável pode também ser inferido, evitando declarações excessivas. Apesar de ter sido apresentada em 1995, a linguagem Ruby só recebeu a devida atenção após o aparecimento da plataforma Ruby on Rails em 2004, a qual obteve um enorme sucesso no desenvolvimento de aplicações Web. Funcionalidades como a tipagem dinâmica, e facto de ser uma linguagem interpretada introduzem um decréscimo de performance face a linguagens compiladas, com tipagem estática. Contudo, permite uma programação mais intuitiva e liberta o programador de aspectos que podem ser geridos pela própria linguagem. 1.2 AspectJ O AspectJ é uma extensão à linguagem de programação Java de propósito geral, com grande utilidade na engenharia de software. Esta foi criada em 1997, por uma equipa liderada por Gregor Kiczales no centro de investigação Xerox Palo Alto Research Center, Inc. (PARC). A especificação desta linguagem de programação encontra-se actualmente disponível através de diversos IDEs open-source da Fundação Eclipse. O conceito geral de Programação Orientada a Aspectos (POA) foi desenvolvido ao longo de quatro décadas, e culminou na criação do AspectJ em Em 1998 foram realizadas as primeiras interacções entre o AspectJ e utilizadores externos, sendo deixado para 2001 a sua primeira difusão. A POA é um complemento ao conceito da Programação Orientada a Objectos (OOP). A sintaxe usada pelo AspectJ é semelhante 42

43 à do Java incluindo integrações nos IDEs mais utilizados desta linguagem de programação. Existe um conjunto de estruturas específicas do AspectJ, conhecidas por Join Points, Pointcuts e Advices. Durante o desenvolvimento de um programa, estas estruturas são encapsuladas em Aspectos para permitir que a equipa de desenvolvimento melhore as capacidades de reutilização de estruturas pré-implementadas. O Aspecto é uma unidade de programa que altera o comportamento de um sistema de forma não invasiva, isto é, sem necessidade de alteração de código. Os Aspectos podem ser inseridos, alterados ou removidos em tempo de compilação. A sua utilização pode alterar a estrutura estática de um programa, adicionando membros a uma ou mais classes, ou modificando a relação de herança entre classes. De seguida são descritas as quatro entidades indispensáveis para a caracterização do POA. Essas entidades são: Inter-type Declarations: permite que o programador adicione métodos, campos, ou interfaces em classes já existentes e contidas no Aspecto. Join Points: representam pontos bem definidos na execução de um programa onde um determinado Aspecto pode ser aplicado (chamadas a métodos ou acessos a membros de uma classe, para além de poder conter outros Join Points) Pointcuts: são agrupamentos de Join Points especificados pelo programador. Todos os Pointcuts são expressões lógicas (&&, ) que determinam quando é que um conjunto de Join Points combina. Advice: permite que um programador especifique trechos de código que são executados nos Join Points combinados pelos Pointcuts. Estas acções podem ser realizadas antes, depois ou em torno de um Join Point específico. Um Advice contém as alterações que devem ser aplicadas ortogonalmente ao sistema em implementação. Os Advices têm um determinado conjunto de benefícios de onde se salienta a sua facilidade de compreensão, de manutenção, de evolução e de reutilização numa aplicação informática em desenvolvimento. Os pontos positivos relacionados com a linguagem de programação passam pela modularidade, reuso e extensibilidade das suas aplicações. O suporte aos diferentes IDEs que podem ser utilizados, o elevado nível de desempenho, bem como o aumento da produtividade e da capacidade para permitir implementações e testes progressivos em sistemas são também pontos positivos do AspectJ. O AspectJ tem um conjunto de pontos fracos de onde se salienta as suas fracas capacidades de depuração. A fraca depuração do AspectJ é caracterizável pelo facto de a nível sintáctico o código POA aparecer separado do restante código, enquanto que em Runtime este encontra-se misturado com porções de código não orientado a aspectos. Um outro problema na implementação de sistemas com recurso a POA encontra-se na definição de mecanismos de quantificação que permitam ao programador chegar a diversos Join Points com apenas uma declaração. Caso esta capacidade seja bem 43

44 implementada, torna-se possível, com apenas uma linha de código, executar um conjunto de Join Points. Outro problema com a POA passa pela captura não intencional de Join Points através de Wildcards. Por exemplo, suponha-se que é especificado um determinado Pointcut com um Advice associado, e um Wildcard para todos os métodos que tenham certo padrão de nomenclatura. Um programador desavisado pode criar um método cujo nome seja compatível com esse Wildcard, sem que seja essa a sua intenção, levando à execução inadvertida do Advice correspondente. De igual forma, ao renomear um método é possível alterar-se completamente a sua semântica, alterando assim o resultado final. Uma solução para este tipo de problemas seria o uso de uma ferramenta capaz de criar condições para deixar os Advices mais visíveis nas restantes porções de código. 1.3 F# A linguagem de programação F# (pronuncia-se F sharp ) é uma linguagem muito recente, tendo estado ainda em versão beta em Junho de 2006, o ano em que o presente paper foi redigido. O F# foi criado através do Microsoft Research por Don Syme, e de momento é desenvolvido e mantido pelo mesmo autor em conjunto com James Margetson, tendo a primeira versão final sido lançada a 2006, e a versão beta 1.0 foi disponibilizada ao público em Janeiro de Ela é uma nova implementação, na sua totalidade, de uma linguagem do tipo OCaml (que por sua vez é um membro da família das linguagens de programação ML). O principal objectivo do F# resume-se à implementação de funcionalidades de base de uma linguagem de programação ML na plataforma.net, focando-se na interoperabilidade das linguagens através de compilação tipada. Outros objectivo são o de providenciar uma implementação ML que possa coexistir como uma linguagem companheira num sistema multi-linguagem, e trazer os benefícios da plataforma.net e o estilo de programação ML às comunidades de computação científica, de engenharia e de alto desempenho. Isto permite também que se escreva aplicações verdadeiramente significantes numa linguagem do tipo ML. Esta linguagem, tendo por base o paradigma funcional, é na realidade uma mistura desse paradigma com outros, ou seja, é multi-paradigma. É portanto, orientada a objectos, imperativa e é uma linguagem de scripting, fazendo parte da plataforma.net da Microsoft. O F# tenta providenciar o melhor da programação funcional e orientada a objectos. Ela Tem outras características, como o facto de ser typesafe, eficiente e type-inferred. Contudo, pode-se afirmar que uma das suas maiores vantagens incide no facto de esta estar integrada na plataforma.net, o que é precisamente um dos maiores objectivos, permitindo assim, uma perfeita interoperabilidade com outras linguagens.net, tanto pela vantagem do uso directo das APIs.NET pelo F#, quanto pela vantagem do uso dos componentes.net naturais do próprio F#. Por exemplo, tanto o C# como o F# podem chamar-se directamente um ao outro no código. Desta forma podemos constatar que as bibliotecas principais desta linguagem são as próprias bibliotecas.net, como por exemplo DirectX, Windows Forms e ASP.NET. E de forma semelhante as bibliotecas desenvolvidas para o F# ficam disponíveis para serem usadas por outras linguagens da plataforma.net. Um 44

45 programador pode aceder a bibliotecas.net utilizando uma sintaxe de., ou seja, acedendo às várias classes de bibliotecas.net da seguinte forma, no exemplo: Directory.GetFiles, que pertence a System.IO.Directory. No entanto, é pertinente salientar que o F# também disponibiliza uma biblioteca própria, que foi desenhada com vista a ser compatível a larga escala com a biblioteca standard da OCaml, que aproxima e extende algumas das bibliotecas OCaml. O que significa que não é necessário usar bibliotecas.net se tal não for apropriado. E uma vez que ambas as linguagens partilham um subconjunto comum da linguagem pode ser prático compilar uma base de código com ambas. Estes factores permitem que código OCaml possa ser portado para a plataforma.net, e não só! Podemos igualmente utilizar código F# para correr em OCaml. Toda a compatibilidade descrita neste parágrafo é precisamente um ponto de foco neste projecto. Muitas bibliotecas e aplicações de OCaml podem ser cross-compiled directamente ou com pequenas mudanças compiladas condicionalmente. É inclusivé possível escrever aplicações complexas e sofisticadas que podem ser cross-compiled como código de uma ou outra linguagem. Como projecto de investigação, o F# demonstra como a plataforma.net permite a interoperabilidade entre diferentes paradigmas de programação, que é algo que o nosso caro leitor certamente concordará que seja bastante interessante e útil. O F# é a primeira linguagem ML onde todos os tipos e valores num programa ML podem ser acedidos a partir de outras linguagens significativas (a título de exemplo o C#) de forma amigável e previsível. As características distintivas de todas as linguagens da família ML são uma forte static type checking, excelente type inference, bastante leve e tipos de funções typesafe, segura e unions sintacticamente convenientes e descriminadas. Este conjunto permite soluções sucintas, mas eficientes, para muitos problemas de programação, e permite repetidamente que padrões comuns de código sejam abstraídos muito facilmente. O que faz do F# uma linguagem.net distinta é o facto de ser uma linguagem multiparadigma com a particularidade da produtividade acrescida pelos benefícios da programação funcional. O uso de type inference e generalização automática permitem alcançar bom desempenho e com código sucinto. O toolset do F# permite visualização e desenvolvimento interactivos. Contém suporte para LINQ e meta-programação do estilo LINQ. Algo também de positivo a salientar é o suporte da Microsoft Research para uma reputação credível e estável, e como um ponto central para a comunidade do F#, e também como fonte de utilizadores de grande impacto na Microsoft. Por último, podemos mencionar a importância inerente da programação funcional no mundo multi-core emergente. Um outro elemento importante do F# é a sua combinação de funcionalidades dinâmicas e estáticas. Por exemplo, o F# Interactive providencia um ambiente de compilação dinâmico bastante poderoso, em que código introduzido de forma dinâmica é executado utilizando o poder de desempenho de código nativo de alta qualidade. Outro elemento chave é a forma sucinta do código, através do uso de type inference. O F# permite também o uso de outras técnicas dinâmicas chave tais como um tipo universal de object, geração de código runtime, inspecção runtime das propriedades dos valores e a análise runtime dos parâmetros tipo. 45

46 Esta tecnologia permite multi-threading e a construcção de dlls, suporta tuplos (múltiplos argumentos e múltiplos retornos). Não usa apontadores para null. Em geral, são menos conceitos e menos tempo em desenho das classes. Até agora podemos dizer que aparenta ser algo muito bom, porém, e em termos de desempenho? Que podemos dizer acerca do F#? Certamente não será um ponto de desilusão. Podemos dizer que o F# utiliza as facilidades de compilação do.net CLR para gerar código nativo de elevado desempenho, através da form intermediária de Common IL. Digamos que o nosso amigo F# é sucinto como uma linguagem de scripting, mas ao mesmo tempo a verificação de tipos estática e o type-inference garantem o uso de representações de dados compactas e então é gerado código eficiente de elevado desempenho para todos os constructs da linguagem. O F# foi a primeira linguagem.net a produzir Generic IL, tendo o compilador sido parcialmente desenhado com esta linguagem em mente. O compilador pode também produzir binários não-genéricos.net v1.0 ou v1.1. Nesta linguagem os programas são compilados criando-se um executável. Contudo, nem tudo é perfeito! E no momento em que este artigo foi produzido nem todas as optimizações se encontram activas por omissão, havendo no entanto alguns pontos para os quais a Microsoft dá sugestões na página da linguagem acerca da compilação de código fonte. O F# vem preencher certas lacunas da ML/OCaml implementando algumas funcionalidades em falta. A linguagem dispõe de funcionalidades que geralmente estão ausentes nas implementações ML, tais como Unicode strings, dynamic linking, preemptive multithreading e suporte de máquinas SMP. De notar também que a linguagem é de fonte aberta ao público desde a versão x e é livre. 2 Aplicações práticas das linguagens Para perceber um pouco melhor as vantagens disponibilizadas por estas linguagens, abordámos aplicações concretas das mesmas. Desta forma, é possível analisar a utilização prática das inovações introduzidas por cada uma. 2.1 Ruby on Rails (RoR) O sucesso da linguagem Ruby e a sua recente popularidade devem-se sobretudo à plataforma Ruby on Rails (RoR). RoR é uma plataforma de desenvolvimento de aplicações web escrita na linguagem Ruby. Criada por David Heinemeier Hansson para desenvolver alguns projectos pessoais, foi mais tarde disponibilizada como OpenSource. A plataforma RoR permite desenvolver aplicações web de uma forma fácil e intuitiva. Por exemplo, o ActiveRecord, utilizado para acesso a bases de dados, cria e gere as ligações entre objectos e tabelas, desde que estas obedeçam às normas convencionadas pela plataforma. O modelo Model View Controller (MVC) foi adoptado pela plataforma, permitindo uma clara distinção entre as camadas que compõem as aplicações. A camada Model 46

47 representa o acesso a bases de dados, onde é utilizado o ActiveRecord. Este define as funções de pesquisa, inserção, actualização e remoção das entradas nas tabelas com base nos objectos da aplicação. A camada View está relacionada com a visualização da aplicação, nomeadamente as páginas web. A plataforma permite utilizar AJAX, ou seja, facilita um conjunto de funcionalidades mais abrangente exibindo informação actualizada sem necessidade de efectuar refresh total das páginas. A camada Controller engloba a lógica da aplicação, isto é, a interligação entre a interacção por parte do utilizador através da camada View, e a execução das operações pretendidas na camada Model, ao nível dos dados. Dado que a maior parte das aplicações web podem ser desenvolvidas segundo o modelo MVC, a plataforma RoR introduz o conceito de scafolding, ou seja, é possível especificar apenas algumas configurações mínimas, e a plataforma cria toda a estrutura básica necessária ao funcionamento da aplicação. Desta forma, é importante adoptar as normas definidas pela plataforma, para evitar a necessidade de especificar código extra. Aliás, este é um dos aspectos negativos da plataforma: caso a aplicação web a desenvolver não obedeça às convenções da plataforma, será necessário um esforço extra no sentido de especificar as diferenças, quer a nível de configuração, quer a nível de código. A linguagem Ruby permitiu assim o desenvolvimento desta plataforma. É necessária uma menor quantidade de código relativamente a outras linguagens, e este torna-se mais intuitivo, após uma adaptação relativamente fácil à linguagem. 2.2 Plataforma AspectJ O sucesso do AspectJ destaca-se sobretudo pelo cuidado mantido ao longo das várias fases de projecto para o desenvolvimento desta linguagem de programação. Este factor contribuiu para enfatizar a simplicidade e usabilidade da linguagem, factores de grande valor junto da comunidade de utilizadores finais desta tecnologia. Actualmente, o AspectJ tornou-se o standard de-facto (significa, na prática) para POA a nível mundial. O AspectJ foi desenhado para ser implementado directamente na Virtual Machine (VM) e em vários formatos, incluindo Source-Weaving e Bytecode-Weaving. Um programa em AspectJ é um programa Java válido (possui compatibilidade total) e executa na VM do Java (possui também compatibilidade de plataforma). Todas as classes afectadas por Aspectos são binariamente compatíveis com as classes não afectadas, de forma a manter a compatibilidade com quaisquer classes que sejam compiladas com as originais não afectadas. O facto de suportar implementações múltiplas permite que a linguagem cresça em função da constante evolução tecnológica. Ao ser compatível com Java, assegura-se a continuidade da linguagem através de uma plataforma sempre disponível e em constante desenvolvimento. A implementação original de AspectJ realizada pela PARC usava Source-Weaving e requeria o acesso ao código fonte. Quando a PARC cedeu o código do AspectJ à Fundação Eclipse, esta reimplementou-o usando o seu compilador de Java e um Bytecode-Weaver baseado em Byte Code Engineering Library (BCEL). Desta forma os programadores podiam escrever aspectos para o código em formato binário (.class) e realizar o seu deployment sem alterar o seu processo de construção. Desde então, a 47

48 equipa da Eclipse tem aumentado o desempenho e correcção do AspectJ, tem actualizado esta linguagem para suportar funcionalidades como os conhecidos por Generics e Annotations da linguagem Java SE 5, e integraram o Annotation-Style do AspectWerkz. O AspectWerkz foi criado por Jonas Boner e Alexandre Vasseur, sendo uma das mais rápidas e funcionais frameworks disponíveis para POA. Existem outras frameworks, como JBoss AOP e Nanning, sendo estas menos interessantes para desenvolver, caso a motivação consista em aprender POA e integrá-lo em projectos já existentes. O projecto Eclipse suporta linha de comando e interfaces Apache Ant. Um projecto relacionado com o Eclipse, AspectJ Development Tools (AJDT) melhorou firmemente a sustentação desse IDE para AspectJ. A sustentação do IDE para Emacs, Netbeans e JBuilder, o que permitiu uma maior compatibilidade de ferramentas, aconteceu quando a PARC os disponibilizou como fonte aberta. Essa sustentação tem sido um elemento chave para os programadores de Java usarem AspectJ e perceberem o conceito de Responsabilidades Transversais. Existe uma divisão do AspectJ em duas partes distintas: a linguagem de especificação e a linguagem de implementação. A parte da linguagem de especificação define a linguagem na qual o código é escrito; com AspectJ, os interesses funcionais são implementados em Java (preocupação com a compatibilidade para o programador - o programador deve sentir-se como se estivesse utilizando uma extensão da linguagem Java); e para implementar a combinação de interesses sistémicos são utilizadas as extensões disponibilizadas pelo próprio AspectJ. A parte da linguagem de implementação fornece ferramentas para compilação, debugging e integração com diferentes IDEs. O AspectJ implementa dois tipos de interesses sistémicos, os estáticos e dinâmicos. São nestes interesses que ocorrem a combinação aspectual. Esta combinação pode atravessar, transversalmente, diversos módulos de um sistema para que o interesse em questão possa ser devidamente implementado. 2.3 F#, plataforma.net O F# é uma linguagem muito boa e com várias aplicações de elevado interesse. É bastante vasto nas suas aplicações, mas iremos falar um pouco de algumas. Há várias áreas chave de aplicação para uma linguagem como o F# na plataforma.net. Em particular, tais linguagens de programação são excelentes em programação matematicamente orientada, e com as bibliotecas e ferramentas de visualização adequadas, uma gama de tarefas científicas e de engenharia também. Estas linguagens são também bem conhecidas por serem extremamente poderosas quando usadas para implementar análises simbólicas sofisticadas tais como verificação de hardware, verificação de software, optimização, aprendizagem de máquina e compilação. É também pertinente salientar que o F# se encontra também em uso pela própria Microsoft, que é algo que até nos dá mais confiança na sua utilização, uma vez que os seus próprios criadores apostam na linguagem. E sendo a Microsoft uma empresa de sucesso, mais confiança nos dá. 48

49 As ferramentas para programar em F# podem ser obtidas gratuitamente, estando disponíveis através do próprio sítio web da linguagem. E fazendo parte da plataforma.net, em semelhança às restantes linguagens da plataforma esta dispõe das facilidades do Visual Studio, tais como a verificação dos tipos com feedback passando o rato por cima, utilizando uma extensão para tal, o F# for Visual Studio, que é compatível com ambos o Visual Studio 2003 e o Disponibiliza um ambiente de build/debug, debugging gráfico, highlighting interactivo da sintaxe, parsing e typechecking, IntelliSense, CodeSense, MethodTips e um sistema de projecto simples. Pode portanto ser usado com ferramentas da.net Framework, o Visual Studio e muitas outras ferramentas de desenvolvimento em.net. Fig. 1. IntelliSense. Fig. 2. Type-Inference. Como meio de identificar os pontos fortes e fracos do F#, recorremos a uma tabela comparativa entre o OCaml e esta nova linguagem, que mostra apenas as diferenças. Contudo os pontos fortes aqui mencionados são uma comparação destas duas linguagens da mesma família e não todos os pontos fortes do F#, tendo já muitos pontos importantes de carácter mais geral sido apresentados no presente artigo, como é obviamente a integração na plataforma.net. A tabela comparativa pode ser visionada de seguida: 49

50 Table 1. Comparação entre F# e OCaml. Funcionalidade F# OCaml Unicode strings e wide chars Sim Não Namespaces Sim Não Strong-named assemblies Sim Não Structural subtyping Não Sim constraints Nominal subtyping constraints Sim Não Structured classes Não Sim Variance on type parameters Não Sim Labelled Arguments Não Sim Default parameters Não Sim Operator Overloading Sim Não Functors Não Sim C Foreign Function Interface Via C# Sim Interoperabilidade COM Via tlbimp.exe Via camlidl Interoperabilidade.NET sim Não Algo que irá certamente levantar algumas sobrancelhas e causar grande entusiasmo é a ligação do F# com a plataforma XNA para jogos (usando o F# e o XNA Game Studio Express), e com a XBox 360. Como o F# é mais sucinto e expressivo que o C#, para além de ser livre e regularmente actualizado com novas funcionalidades poderosas, tornou-se possível criar jogos na plataforma XNA com F#. Contudo, é necessário usar esse código compilado como uma biblioteca (ficheiro dll ) para ser usado em C# adicionado como referência, pois não é possível de forma directa. Existem tutoriais disponíveis acerca deste assunto cujo interesse reside na maior facilidade de programação usando o F#. Existem já diversos jogos desenvolvidos usando o F#, e neles se inclui o de momento tão jogado Sudoku existente em diversas plataformas. A página do mesmo pode ser consultada nas referências do paper. Para os utilizadores de Linux gostaríamos de referir a existência da possibilidade de se usar já o F# na plataforma Mono, também livremente. 3 Desenvolvimentos futuros das linguagens Para concluir, compilámos as opiniões das várias comunidades associadas a cada linguagem, bem como de peritos, de forma a podermos obter um preview sobre os desenvolvimentos de cada uma. 3.1 Fragmentação da linguagem Ruby Existem actualmente oito implementações da linguagem Ruby. A implementação original (disponível em OpenSource), criada pelo autor da linguagem, é a mais utilizada. Yet Another Ruby VM (YARV), será utilizada na versão 2.0 da linguagem 50

51 como a máquina virtual oficial da linguagem Ruby. JRuby é uma implementação na plataforma Java, e como tal uma das suas vantagens é a possibilidade de interligar código Java com código escrito na linguagem Ruby. Ruby.NET e IronRuby são implementações da linguagem Ruby na plataforma.net, para a Common Language Runtime (CLR). Cardinal, Rubinius e MetaRuby são implementações activas mas ainda numa fase embreonária. Existe um receio generalizado em relação ao futuro da linguagem. Muitos são da opinião de que a fragmentação por diversas implementações com propósitos distintos levará a linguagem a um estado de inconsistência e consequente ruptura, conforme afirmam verificar-se hoje com o sistema operativo Linux. O conceito de forking é visto pela comunidade em geral com uma conotação negativa, devido aos inúmeros projectos OpenSource que terminam subitamente devido a forks. Contudo, o desenvolvimento da linguagem Ruby prossegue. A versão 2.0, prevista para o final de 2007, promete revolucionar a linguagem em todas as suas vertentes: sintaxe, interpretação e performance (através da máquina virtual YARV). A próxima versão, 1.9, irá trazer algumas novidades, como métodos com argumentos orderfree (isto é, associa-se o valor ao argumento na chamada do método); a possibilidade de os métodos retornarem múltiplos valores; funções Lambda (anónimas, representadas por blocos de código aceitando argumentos) e a combinação de métodos, (com as palavras-chave before, after, around), seguindo o paradigma da Programação Orientada a Aspectos (POA). Como é possível constatar, apesar do receio de uma fragmentação da linguagem Ruby, esta demonstra ter um futuro promissor, dada a actividade constante no seu desenvolvimento. A perda de performance relativamente a outras linguagens de programação mais utilizadas é suplantada pelas inovações e melhoramentos que possui relativamente a estas. 3.2 AspectJ e a sua crescente popularidade Existe um conjunto de ferramentas que implementam o Paradigma Orientado a Aspectos. Algumas delas são usadas por um número significativo de utilizadores comerciais, outras não possuem tal significância numérica. Ainda que algumas ferramentas não possuam um número de utilizadores elevado, não descuram de qualidade para a produção de sistemas. São cinco as ferramentas POA com uma base significativa de utilizadores, designadamente: AspectJ que é uma extensão orientada a aspectos para Java e permite a implementação modular de responsabilidades transversais; AspectWerkz que é uma framework POA / AOSD de grande performance para Java; JBoss-AOP, rque representa a arquitectura Java usada para o servidor de aplicações JBOSS; Spring que é uma aproximação ao POA diferente da de outras frameworks, pois o seu objectivo é o de permitir uma integração próxima entre a implementação POA e o Spring IoC (Inversion-of-Control, técnica que externaliza a criação e a gerência de dependências entre componentes) de modo a resolver problemas comuns em aplicações empresariais; Glassbox é uma aplicação open-source para programadores de AspectJ e inclui aspectos pré-gerados e uma framework extensa para monitorização 51

52 de aplicações. Outras ferramentas de desenvolvimento são ABC, ARJ, Aspect# (que é uma framework POA para.net e Mono), AspectC++, AspectDNG, phpaspect, AspectXML, Eos que é uma extensão POA para C#, Nanning, AOP Library for PHP entre outros. Entre todas estas frameworks existe alguma diversidade, de onde se salienta o facto do AspectWerkz ser passível de alterações em runtime, e do AspectJ necessitar de recompilar o código antes de ser utilizado. A vantagem do AspectJ permanece na sua rapidez de aprendizagem, uma vez que é muito semelhante ao Java, enquanto que o AspectWerkz possui uma configuração via API e XML. O futuro do AspectJ passará pelo contínuo evoluir da linguagem, do compilador e das ferramentas que o suportam, bem como pela expansão da comunidade de utilizadores desta tecnologia. O feedback da comunidade irá guiar o design do AspectJ. Tem sido realizado um grande esforço para melhorar o AspectJ desde o lançamento do AspectJ 5. O AspectJ 6 será a próxima versão do AspectJ e terá melhoramentos chave em questões como a compilação incremental e o processo de Weaving, para além do modo como conseguirá controlar projectos de grande escala. A próxima Release irá incluir uma nova estrutura de compilação capaz de reduzir drasticamente os valores necessários de memória para gerar (realizar o build de) projectos a partir do código fonte. Algumas funcionalidades de grande dinâmica, como Named Type Patterns, Aspect Scooping, entre outros permitirão criar mecanismos de abstracção de classes tornando-as parte de um Aspecto e farão parte dessa evolução. Para permitir diminuir o consumo de memória necessária à plataforma do AspectJ, existirão melhorias no loadtime weaving. Os factores que mais influenciarão futuros desenvolvimentos do AspectJ serão: a predominância do enorme sucesso que a tecnologia obteve junto da comunidade de programadores em Java; e a vantajosa continuidade da sua livre disponibilização, pois permite baixar o custo da produção de software com qualidade. Sendo uma das linguagens mais respeitadas de entre as que foram criadas segundo o POA, é já considerada como um dos pontos de viragem no futuro da programação. 3.3 F#, uma linguagem prometedora A versão actual do F# é a que foi lançada a público a 30 de Novembro do presente ano de É uma linguagem prometedora por utilizar a simplicidade do ML/OCaml e o poder do.net. Tem portanto potencial para ser uma linguagem forte para os programadores de.net. A programação funcional é o futuro da programação.net, e o F# é muito mais do que apenas uma linguagem funcional, como pudemos já constatar. Cada programador profissional da plataforma.net necessita de aprender acerca de programação funcional, e não há melhor forma de o fazer do que aprendendo com F#, e nenhuma forma mais fácil de aprender F# do que através dos alicerces do próprio F#. 52

53 Se uma pessoa já é familiar com programação funcional, verificará que o F# é a linguagem de programação que sempre sonhou. E todos os programadores da plataforma.net irão verificar que o F# é uma alternativa de mundo real excitante ao C# e Visual Basic. A título de curiosidade, F# é a nota Fá# (Fá sustenido), que é uma nota muito usada em música de guitarra devido à tonalidade de Mi menor. Será este um bom presságio para o F#? Só o futuro o dirá! O F# é visionado como sendo o futuro da programação, e não apenas em.net. E o futuro é agora E sem dúvida, esta linguagem tem criado bastante entusiasmo e uma comunidade que continua a crescer dia após dia. References pdf

54 54

55 Computação Quântica Bruno Santos, Carlos Tavares, Jadir Sousa Faculdade de Engenharia da Universidade do Porto Resumo. Este artigo surge ligado à vontade em destronar o mito que está associado à palavra Quântica, para alguns pouco conhecedores desta área ela surge com uma conotação de dificuldade e complexidade, limitando os ímpetos curiosos logo à partida. Assim é abordada a temática da Computação Quântica tendo como público alvo estudantes pouco familiarizados com este assunto mas que pretendam obter algumas respostas básicas de forma sumária mas rigorosa. Introduz-se os princípios gerais da física quântica que servem de base à computação quântica, posteriormente são apresentados os conceitos de qubit, decoerência e interferência quântica introduzindo a lógica de funcionamento, salientando o paralelismo quântico, factor de diferenciação para com os modelos clássicos e salientandos problemas associados como a decoerência. É feita uma exposição do actual estado da arte na corrida da concretização destes modelos. Este artigo descreve de forma informal os benefícios destes novos modelos na ciência da computação e na vida real, referenciando dimensões como informação quântica, comunicação quântica e segurança quântica e perspectivando futuras evoluções da computação quântica e respectivas implicações a curto e longo prazo. 1 Introdução 1.1 História A história da computação quântica começa realmente em 1985, quando David Deutch, publica um documento que descreve um computador quântico, embora anteriormente já se tivesse colocado a questão se seria possível implementar sistemas quânticos. Em 1994, Peter Shor, dos laboratórios Bell AT&T em Nova Jersey (EUA) apresentou o primeiro algoritmo quântico que na teoria poderia factorizar um numero consideravelmente grande de forma eficiente. Um ano depois, experiências com campos magnéticos permitiram capturar e arrefecer iões até um estado quântico. Com este método foi possível desenvolver pequenos dispositivos de alguns bits. Foram surgindo outras técnicas com o objectivo de limitar os efeitos da decoerência, o grande problema destes dispositivos. Em 1998, seis anos depois de ter sido idealizada, consegue-se finalmente por em prática a teleportação quântica, abrindo novas perspectivas nas áreas de comunicações e redes. No mesmo ano começam a surgir as primeiras linguagens quânticas, que 55

56 2 Computação Quântica permitem simular sistemas quânticos, QCL (Ömer, 1998), Q-gol (Baker, 1997), Qubiter (Tucci, 1998) e (OpenQubit, 1998). Actualmente o maior esforço de investigação esta a ser, especialmente, realizado no desenvolvimento de hardware.[5][25] 1.2 Fundamentos básicos da mecânica quântica A mecânica quântica é a teoria que descreve o comportamento físico de sistemas microscópicos, como átomos e moléculas. Antes de se analisar mais profundamente a computação quântica, considera-se essencial perceber os conceitos de estado quântico, decoerência e interferência quântica para compreensão das restantes secções deste artigo Estado O estado dum sistema quântico pode ser definido pela probabilidade de encontrar determinados valores de medida para grandezas como, posição, velocidade e energia do electrão. Associada a estas medições existe sempre uma incerteza, causada pela superposição coerente de estados distintos. Esta superposição corresponde ao sistema estar ao mesmo tempo em vários estados diferentes. O estado clássico de uma partícula é representado matematicamente por um ponto no espaço de fases, formado pelas componentes da posição e velocidade da partícula. Na mecânica quântica, o estado de uma partícula é representado matematicamente por um vector num espaço vectorial complexo, chamado espaço de Hilbert1. (1) Decoerência Os sistemas quânticos analisados não estão isolados do ambiente que os rodeia, existem interacções que por muito pequenas que sejam têm como efeito a perda de caracteristicas quânticas e distorção do estado quântico em causa Interferência Quântica A interferência quântica representa uma perturbação nas probabilidades de transição entre dois estados. Ou seja a probabilidade de transição entre dois estados, é diferente da probabilidade de transição entre dois estados se se tratasse de um sistema clássico. Portanto, para o estado de origem e o estado-alvo : ê. (1) O termo interferência, tem uma forma vectorial, como tal chamou-se termos de interferência a este vector. 1 O Espaço de Hilbert é um espaço vectorial, definido sobre o conjunto dos números complexos, poderá consultar (7), para detalhes sobre as propriedades deste espaço vectorial. 56

57 3 Computação Quântica 2 Modelo de Computação Quântica A computação quântica utiliza pressupostos e propriedades de partículas microscópicas, como electrões e fotões, que lhe permite interagir como bits quânticos, assumindo as posições de processador e memória de um computador clássico. Nos últimos anos a facilidade com que se duplica a velocidade ou reduz as dimensões dos computadores tem vindo a diminuir. A lei de Moore começa a ser difícil de cumprir. Actualmente já se trabalha ao nível da molécula e do átomo, novas técnicas de divisão são extremamente difíceis de conseguir. Portanto se o computador pretende atingir tamanhos ainda mais reduzidos, a tecnologia quântica deve substituir ou interagir com a tecnologia clássica. Para além de introduzir novos componentes, como por exemplo mais bits numa mesma placa de silício e multiplicar a velocidade dos processadores, permite ainda desenvolver novos algoritmos baseados em principios quânticos. [3] 2.1 Qubit Na computação clássica, o bit é um conceito fundamental, este pode representar dois estados, 0 ou 1. A computação quântica trabalha sobre um conceito análogo, o bit quântico ou qubit. Este possibilita também representar dois estados, equivalentes ao 0 ou 1, a diferença está em que o bit deve obrigatoriamente encontrar-se em 0 ou 1, o qubit pode ainda ser uma superposição dos estados base. Bit clássico Bit quântico 0 ou 1 0 ou 1 ou (0 1) Fig. 1. Bit vs Qubit Um qubit pode ser presentado como uma combinação linear dos dois estados, 0 e 1.[4] ψ 0 β 1. (2) Os números α e β são números complexos. Os estados especiais 0 e 1 formam uma base ortonormal para para o espaço de estados. Quando é feita a medida deste observável é possível encontrar o valor 0, com probabilidade β ou o valor 1, com probabilidade α. Naturalmente α + β = 1, pois a soma das probabilidades deve ser igual a um. Além disso, excepto quando α = 0 ou β = 0 a medida causa distúrbios no estado. Mais uma diferença entre os bits clássicos e os qubits é que os bits clássicos podem ser medidos e manipulados sem sofrerem distúrbios. [1] 2.2 Registos Nos computadores quânticos como qualquer outro dispositivo quântico de processamento de informação, os dados são codificados em registos, que consistem numa série de qubits. Mais uma vez se compararmos com um registo clássico de 3 57

58 4 Computação Quântica bits que apenas pode guardar um número de cada vez, o registo quântico permite que estejam guardados numa superposição todas as oito combinações de bits possíveis. Registo clássico Registo quântico Fig. 2. Registo clássico vs Registo quântico 2.3 Quantum Gates O processamento de dados é realizado através de quantum gates, e a sequência pela qual estes quantum gates são aplicados dita o resultado de um algoritmo,logo o programa a executar deve indicar que quantum gates usar e quando aplicar. Em computação clássica as operações complexas não têm operadores que permitam ser executadas de imediato, assim necessitam de ser decompostas em operações elementares para então poderem ser executadas. No que diz respeito à computação quântico concluiu-se que existem 2 tipos de operações elementares que permitem obter todas as combinações lógicas de operações. Operações sobre um qubit apenas, correspondendo por exemplo a alterações do spin do qubit em causa e operações sobre pares de qubits, em que o estado de um qubit depende do estado de outro. Qualquer computador quântico, deve então implementar estes estes dois tipos de operações. De salientar a particular importância do operador que relaciona dois qubits, este é normalmente implementado por uma operação de NOT controlado (CNOT). [1] Qubit de controlo Qubit alvo Resultado Tabela 1 Tabela de verdade CNOT Este operador limita-se a passar os dois qubits para o resultado caso o qubit de controlo seja 0, se for 1 passa o qubit de controlo para o resultado e inverte o qubit alvo. [5] 2.4 Propriedades Especiais Paralelismo Quântico Esta é a principal vantagem em relação aos computadores clássicos. Consiste na múltipla avaliação simultânea de diferentes inputs. Esta informação fica guardada na amplitude teoricamente infinita dos estados de superposição, no entanto não é 58

59 5 Computação Quântica acessível. Apesar disto já se conseguiu resolver problemas que eram impossíveis para um computador normal [1] Entrada Saída Processador Quântico F(x) F(000) F(001) F(010) F(011) F(100) F(101) F(110) F(111) Fig. 3. Paralelismo quântico - O paralelismo clássico é conseguido através de múltiplos circuitos, cada um construído para aplicar f(x) e são executados simultaneamente, aqui um único circuito f(x) avalia a função para múltiplos valores de x ao mesmo tempo, guardando-os num estado de superposição. [1] Computadores quânticos conseguem então desempenhar diversas operações em paralelo. Um sistema com n qubits consegue executar 2 operações de uma vez Reversibilidade Lógica booleana utilizada pelos computadores actuais inclui operadores como o AND e OR que não são reversiveis, perde-se informação com a execução destes operadores. AND CNOT Fig. 4. And vs Cnot - AND depois executado e caso se obtenha como resultado 0 é impossível saber que operandos deram origem a esse resultado, já o operador CNOT, obtem estados distintos para cada conjunto de entrada, tendo ainda a acrescentar o facto de que os resultados são inversos deles próprios, ou seja, 00 <-> 00, 01 <-> 01, 10<->10 e 11<->11. (5) Ficou no entanto demonstrado que computadores não necessitam de logica booleana. Como ficou exemplificado nas tabelas de verdade da Fig. 4. Processadores quânticos utilizam operadores unários para executar os cálculos, sendo que operadores unários são sempre reversíveis. Um computador reversível pode ser representado por uma rede de estados que representam a informação guardada no 59

60 6 Computação Quântica computador e um conjunto de transições entre esses estados, como não existe perda de informação, é sempre possível fazer o caminho inverso até um estado anterior. [5] 3 Aplicações de Computadores Quânticos 3.1 Algoritmos Quânticos Fazer algoritmos quânticos não é fácil, visto que correspondem a paradigmas de programação completamente diferentes dos utilizados em computadores clássicos. Todos os algoritmos quânticos, têm de se reduzir à manipulação de pequenas partículas com base nos postulados da física quântica, entre cada um dos algoritmos pode haver diferenças muito significativas na abordagem. Isto é visível nos algoritmos que já existem. Por estes motivos, existem muito poucos algoritmos quânticos até à data, no entanto alguns destes têm já um desempenho muito superior aos dos computadores clássicos [23]. Estes algoritmos criados são gerais, permitindo assim resolver famílias de problemas que derivam desses algoritmos. Para cada algoritmo novo abre-se uma árvore de aplicações. Alguns destes algoritmos são completos e darão sempre a resposta correcta, ao passo que outros terão uma probabilidade de erro associada e poderão falhar. Embora esteja provado que após várias utilizações sucessivas dos algoritmos a probabilidade de erro diminui.[20] Algoritmos Baseados em Transformada de Fourier Muitos problemas podem mais facilmente ser resolvidos através do caminho de Fourier, ou seja, através da transformação das equações do problema para o domínio de Fourier através das suas transformadas de Fourier. No entanto, as transformadas de Fourier são uma operação extremamente custosa de ser realizada num computador clássico. Num computador clássico esta operação demorará Nlog N para n números, ou seja n 2, ao passo que num computador quântico é possível, pelo menos teoricamente, fazer uma transformada de Fourier em log N, ou seja em n passos o que corresponde a um ganho exponencial.[20] O algoritmo para realizar a transformada de Fourier é o seguinte: É necessário um sistema com N qubits Para cada um dos qubits, realizar transições unitátias para que fiquem no seguinte estado de superposição: 2-1 (3) 1 j = k e2πijk 2 N j=0 Ao fazer-se isto o estado de superposição do sistema com n qubits obtidos é o seguinte: 1 (4) j = 2 e N x k. 60

61 7 Computação Quântica O que corresponde portanto á transformada de Fourier na forma vectorial. No entanto, este valor não é directamente mensurável, visto que se encontra nas amplitudes de um estado de superposição, e quando for realizada a leitura dos qubits, devido ao fenómeno da decoerência, este valor desaparece. Ainda não existe nenhuma maneira de ler o resultado, no entanto, a transformada é utilizada como cálculo para outros cálculos intermédios. Neste momento, o algoritmo de Shor, que serve para factorizar em primos, números grandes, é o exemplo de maior sucesso baseado no cálculo da transformada de Fourier. Este algoritmo, tem um ganho exponencial em relação ao algoritmo clássico para o mesmo efeito, o que permitiria quebrar chaves RSA em tempo útil[20] Algoritmos Baseados em Pesquisa de Base de Dados Desordenadas Estes algoritmos são utilizados para procurar informação num espaço de soluções sem nenhuma ordenação. Num computador clássico seriam necessários n passos na pior das hipóteses para encontrar a solução que se pretende, e o número de passos esperados é n/2. Teoricamente, este número de passos num computador quântico seria reduzido para n. Este algoritmo, pertence à classe de algoritmos que tem uma probabilidade de erro associada [20]. Neste algoritmo, cada elemento, irá ser representado pelo seu índice em binário representado em n qubits. Inicialmente o estado de superposição deve conter todas as soluções para o problema num estado de superposição. N-1 1 (5) j = N x x=0 Este algoritmo assume também a existência de um oráculo, uma entidade que tem como função reconhecer uma solução para o problema. Reconhecer apenas e não determinar. O oráculo será representado como um qubit extra, que deve dar 1 caso o oráculo esteja defronte da solução do problema, ou 0 no caso contrário. Conceptualmente, o oráculo muda a fase dos elementos candidatos a solução se este forem solução para o problema, através de uma quantum gate que relaciona o valor do oráculo com os restantes qubits. Ao mudar a fase o oráculo separa os elementos no espaço, ficando os que são solução separados dos que não são solução, embora sempre no mesmo estado de superposição. Está provado que seguidas aplicações do oráculo levam ao seguinte estado de superposição: G φ cos 2k 1 2 θ α sin 2k 1 θ 2 β. (6) O vector α corresponde a todos os estados possíveis de não solução, e o vector β corresponde a todos os estados possíveis de solução [21]. Como é visível as probabilidades são dadas pelas funções sinusoidais. Conclui-se que numa leitura seria obtido um estado de solução, com maior probabilidade que um estado de não solução [20]. 61

62 8 Computação Quântica 3.2 Simulação Quântica A simulação quântica diz respeito à simulação de sistemas quânticos. Num computador clássico, o número de recursos necessários cresce exponencialmente com o aumento do tamanho do sistema. Devido ao número de estados existentes num qubit, este torna-se um forte candidato para a simulação quântica de sistemas complexos. Se se considerar um sistema com k qubits o numero de estados possíveis aumenta exponencialmente, para k > 300 o numero de estados possíveis é maior que o numero de electrões do universo [20]. Ou seja, um computador quântico é bom para simulação de fenómenos quânticos. A forma de como isto pode ser realizado, foi proposta por Feynman em 1982 [24]. 4 Poder do Computador Quântico Nem todos os algoritmos quânticos são deterministas, visto que poderão exisitr algoritmos quânticos em que o qubit de resultado estará num estado de superposição, tendo portanto uma probabilidade associada, e a leitura final do qubit poderá obter um erro, embora um algoritmo quântico deixe os qubits num estado em que é garantida a solução certa com uma probabilidade elevada. Por estas razões foi criada uma nova classe de problemas denominada BQP Bounded Quantum Probability, que corresponde do ponto de vista conceptual, à classe de problemas que podem ser resolvidos se se admitir que a resposta é dada com uma probabilidade de erro limitada a X%. EXP PSPACE NP BQP? P Quando comparada com as classes existentes sabe-se que esta classe contém todos os problemas da classe de complexidade P, e sabe-se também que não consegue resolver de forma eficaz nenhum problema da classe EXP, ou seja fora da classe PSPACE. Como ainda não é conhecida a relação entre as classes P, NP e PSPACE, ou seja se se tratam todas do mesmo conjunto de problemas, ou se haverá problemas NP que não sejam P e problemas do PSPACE que não estejam na classe NP, assumiu- 62

63 9 Computação Quântica se que o posicionamento da classe BQP estará algures entre a classe P e a classe PSPACE, isto porque se sabe que o computador quântico resolve alguns problemas da classe NP, embora se considere que esta relação entre as duas classes é desconhecida [23]. Também é sabido que existem problemas que não são resolúveis num computador quântico que são num computador clássico [20]. Existem no entanto, afirmações por parte de alguns investigadores que dizem que se os operadores utilizados, (as quantum gates), fossem operadores não lineares, seria possível resolver todos os problemas NP [22]. 5 Construção de um Computador Quântico Existem algumas arquitecturas candidatas a computador quântico, que são as seguintes: Conjuntos de átomos individuais controlados a laser; Computadores quânticos baseados em electrões de Hélio; Computadores quânticos baseados fotões e utilizando circuitos ópticos; Electrónica super-condutora; Até aqui tem sido discutida a computação quântica de um ponto de vista teórico, e teoricamente existem assumpções que na prática não são realizáveis, em nenhuma arquitectura até agora. Para que seja possível a computação quântica, é necessário aproximar os computadores quânticos dos modelos teóricos ideais. Para tal, é necessário vencer algumas barreiras que não foram ainda realizadas. As barreiras a ultrapassar são as seguintes: Representação robusta da informação quântica; Ser capaz de efectuar todas as operações universais; Ser capaz de preparar estados iniciais estáveis; Medir com precisão o estado final dos qubits; 5.1 Representação da Informação Teoricamente, o espaço de estados possíveis para um qubit é definido por todos os vectores, cuja norma seja igual a 1. Este espaço, conhecido por espaço de Hilbert, tem uma cardinalidade infinita, como tal, teoricamente, seria possível representar infinitos estados num qubit, ou conjunto de qubits. Na prática, porém existe um problema que se chama ruído quântico, o que faz com que muitos estados não sejam diferenciáveis, o que impossibilita a ideia teórica da existência de estados infinitos [20]. 63

64 10 Computação Quântica 5.2 Operações Universais Nem sempre todas as operações universais são realizáveis, e a dificuldade de implementação varia de sistema para sistema. Os maiores problemas surgem devido ao tempo máximo para realizar a operação ser muito pequeno, e da precisão necessária para executar as operações. Erros de precisão podem causar por exemplo, decoerência, ou outros erros de processamento [20]. 5.3 Estabilidade dos Estados Iniciais O estabelecimento dos estados iniciais para o processamento sofre dos mesmos problemas das operações universais. Tem necessariamente de ser preciso, o que pode não ser possível no caso por exemplo de um sistema de ressonância magnética onde existe muita redundância nos qubits e como tal inconsistência. E por outro lado, o estado inicial tem também de ser estável, o que pode ser difícil nalguns tipos de sistemas, por exemplo, nos sistemas que sofram de problemas de aquecimento [20]. 5.4 Medir com Precisão o Estado dos Qubits Os maiores problemas surgem mais uma vez associados à fidelidade do sistema, neste caso na medição dos resultados. É necessário evitar problemas do género de medições serem realizadas quando não devem levando à decoerência prematura dos qubits ou medições terem erros de precisão e dar resultados errados. Os sistemas de medida devem também levar em conta, o ruído existente nos resultados [20]. 6 Estado da Arte Apesar de já se realizar investigação à mais de 30 anos nesta área, a computação quântica actualmente ainda só existe no papel. Existem algumas empresas que se dedicam à investigação na tentativa de chegar à construção de um computador quântico, e respectiva comercialização. De salientar a D-Wave que se encontra a desenvolver um CQ utilizando supercondutores electrónicos [8], a id Quantique que comercializa algum hardware relacionado com criptográfica quântica (ver à frente em Áreas Anexas) e dispositivos geradores de números aleatórios[9], e a MagiQ encontra-se a desenvolver hardware relacionado com processamento de informação quântica[10]. No entanto a investigação nesta área tem obtido bons resultados. de salientar: [11] Em 2005 foi criado no Institute of Quantum Optics and Quantum Information na Universidade de Innsbruck na Áustria o primeiro quantum byte, ou qubyte. Em 2005 em Harvard e no Institute of Technology na Georgia investigadores obtiveram sucesso a transferir informação quântica entre átomos e fotões. Em 2005 na Universidade do Michigan foi construido um chip para qubits, utilizando a tecnologia utilizada actualmente na fabricação de semicondutores. 64

65 11 Computação Quântica Em 2006 o primeiro CQ de 12 qubit realizou testes de benchmarks. 7 Perspectivas Futuras Actualmente a grande limitação está a nível de hardware na construção de um computador quântico. No entanto como já aconteceu no passado será tudo uma questão de tempo até surgir a tecnologia capaz de transpor o que existe no papel para à realidade. Um dos cientistas que esteve relacionado com experiências de teletransportação de informação quântica afirma que em 2035 irão existir computadores quânticos a funcionar [12]. Perspectivas futuristas apontam que o desenvolvimento do computador quântico criará as condições para que novas tecnologias surjam, não com o intuito de proporcionar um maior poder computacional, mas para permitir a existência de computadores em todo tipo de acessórios, para permitir criar redes neuronais de elevada capacidade e assim armazenar o conhecimento humano, e numa perspectiva bastante ligada à ficção cientifica irá ser possível ligar directamente ao cérebro humano dispositivos de processamento e comunicação.[13] 8 Áreas Anexas Ao longo deste artigo foram sendo referidas diversas aplicações da computação quântica, contudo aqui vão ser referidas áreas que sozinhas não fazem sentido e se desenvolveram como consequência da computação quântica. Segurança - neste ponto importa salientar a criptografia quântica, esta utiliza princípios físicos da matéria para permitir criar uma chave secreta que não pode ser quebrada (nem por um computador quântico). A criptografia quântica surge como um avanço em relação à clássica pois esta tem como desvantagem o envio das chaves públicas ou privadas para o emissor e destinatário quando a chave é criada. No entanto o envio das chaves sofre o mesmo perigo que qualquer outra mensagem transaccionada, pelo que também necessitariam de estar encriptadas. Porém trata-se de um ciclo do qual não se consegue sair, porque antes de tudo seria necessário que o emissor e o receptor tivessem chaves que permitissem cifrar e decifrar a primeira mensagem. Graças ao no cloning theorem (explicado á frente) é possível garantir que a informação quântica não seja lida ou modificada. [14] Informação quântica - é informação física que se encontra no estado do sistema quântico. Como já foi referido anteriormente a unidade de informação quântica mais popular é o qubit. Aqui é necessário referir o no cloning theorem que impede a criação de uma copia de um estado de um sistema quântico. Este teorema baseias-se no principio de Entanglement (uma correlação que existe entre sistemas quânticos) por forma a que a transmissão de informação quântica num canal clássico (usualmente conhecido por teletransportação) seja feita de forma a não é possível interceptar a informação. O teletransporte é um processo através do qual o estado de um qubit é transferido para outro, utilizando as propriedades não-locais de estados que partilham uma relação de Entanglement. [15][16][17][18][19] 65

66 12 Computação Quântica 9 Conclusão O computador quântico surgiu tendo como base a mecanica quântica. A mecânica quântica assenta em alguns conceitos bastante dispares dos conceitos usados mecanica clássica ou newtoniana. A mecanica quântica afirma que uma particula se pode encontrar num estado de superposição dos seus estados próprios, que só se revela quando interage com o meio, através de por exemplo uma observação. A computação quântica serve-se desta capacidade. Existem no entanto, problemas que a própria fisica quântica coloca, como a decoerência o fenómeno que causa o colapso de uma particula para os seus estados próprios. As maiores vantagens da computação quântica em relação à computação clássica, são o paralelismo quântico e a reversibilidade. O paralelismo por um lado, derivado da capacidade de superposição dos estados, permite a obtenção de informação sobre multiplos valores de uma função, embora não passe disto mesmo, visto que devido á decoerência, não é possivel ler todos os valores explicitamente. Apesar disto, consegue-se realizar processamentos que num computador clássico não se conseguiria recorrendo a esta capacidade.a reversibilidade permite sempre visitar o caminho inverso numa transição, o que também já se revelou um mecanismo util nalgumas aplicações. Para que tragem beneficios novos, os algoritmos quânticos devem explorar ao máximo estas capacidades, embora aumente bastante a complexidade de fazer novos algoritmos. Existem já vários algoritmos, para máquinas quânticas, e a tendência neste momento é para um continuado aparecimento de novos algoritmos. Por agora, porém, o numero de algoritmos é ainda bastante reduzido. Do ponto de vista teórico, desconhece-se ainda em parte o verdadeiro poder de um computador quântico, embora se estime que pelo menos alguns problemas que outrora não eram resolúveis, passarão a sê-lo. As classes de problemas que em teoria consomem mais recursos, continuarão no entanto, intocáveis. Um dos beneficios óbvios será no entanto, a simulação de fenómenos e de sistema quânticos, que sofrerá um grande melhoramento. Do ponto de vista prático de implementação dos sistemas, a prática encontra-se ainda bastante longe dos modelos teóricos. Actualmente ainda não foi construído nenhum computador quântico, contudo tem sido feitos avanços no aumento do numero de qubits, e melhorias nas diversas arquitecturas para construção de um computador quântico. Vários cientistas acreditam que como já aconteceu anteriormente as dificuldades que existem na construção serão suplantadas e num futuro não muito distante o computador quântico será uma realidade, e servirá de suporte ao aparecimento e desenvolvimento de novas tecnologias que até hoje são atribuídas apenas à ficção cientifica. Em redor de toda esta área da nova mecanica quântica surgiram outras áreas, como a segurança quântica, comunicação quântica e a informação quântica. Estas áreas são análogas as suas clássicas mas que se baseiam nos princípios da física quântica. 66

67 13 Computação Quântica Referências 1. Alves, Flávio Luís. Computação Quântica: Fundamentos Físicos e Perspectivas spin. Wikipédia. [Online] 13 de Dezembro de [Citação: 19 de Dezembro de 2006.] 3. What is Quantum Computation? Quantiki. [Online] 6 de Novembro de [Citação: 20 de Dezembro de 2006.] 4. Qubit. Wikipédia. [Online] 21 de Novembro de [Citação: 20 de Dezembro de 2006.] 5. Joachim Stolze, Dieter Suter. Quantum Computing - A Short Course from Theory to Experiment. s.l. : Wiley-VCH, Quantum computing. Webopedia. [Online] 6 de Junho de [Citação: 20 de Dezembro de 2006.] 7. Hilbert_space. Wikipédia. [Online] 4 de Dezembro de [Citação: 21 de Dezembro de 2006.] 8. D-Wave. [Online] 9. id Quantique. [Online] 10. MagiQ. [Online] 11. Timeline of Quantum Cumputing. [Online] [Citação: 21 de Dezembro de 2006.] 12. The super-fast future of computing. [Online] 14 Junho de 2004 [Citação: 21 de Dezembro de 2006.] 13. Quantum leap [Online] 2 Agosto de 2006 [Citação: 21 de Dezembro de 2006.] m 14.Quantum Cryptography. [Online] [Citação: 21 de Dezembro de 2006] 15.Quantum Teleportation. [Online] [Citação: 21 de Dezembro de 2006] 16. Quantum Information. [Online] [Citação: 21 de Dezembro de 2006] information 67

68 14 Computação Quântica 17. The no cloning theorem [Online] [Citação: 21 de Dezembro de 2006] 18. Quantum Information Theory [Online]16 Novembro de 2006 [Citação: 21 de Dezembro de 2006] 19. Entanglem [Online] [Citação: 21 de Dezembro de 2006] 20. Michael A. Nielsen, Isaac L.Chuang. Quantum computation and Quantum Information s.l. : Cambridge University Press, C. Lavor, L.R.U. Manssur, R. Portugal. Grover s Algorithm: Quantum Database Search, Daniel S.Abrams, Seth Lloyd. Nonlinear quantum mechanics implies polynomial-time solution for NP-complete and #P problems, Dong Pyo Chi, Jimsoo Kim. Quantum Computation, R.P.Feynman, "Simulating physics with computers", The Quantum Computer, Computer Science at Caltech. [Online] 30 de Maio de [Citação: 21 de Dezembro de 2006] 68

69 Data Mining como Estratégia para a Criação de Valor Joana Valente, José Soares, Simão Rio Faculdade de Engenharia da Universidade do Porto Dezembro 21, 2006 Resumo. A integração do conceito de Data Mining no suporte às organizações surgiu da incapacidade de interpretar grandes quantidades de dados. Era, portanto, necessária uma ferramenta automática que desempenhasse a transformação dos dados em informação e posteriormente em conhecimento, dotando assim a empresa não só de memória, proveniente das suas bases de dados, mas também de inteligência obtida a partir delas. O artigo pretende dar a conhecer o conceito de Data Mining como ferramenta estratégica para a criação de valor numa organização, explicitar como poderá ser aplicada, referir as suas potencialidades, através da apresentação de casos reais, apresentando como foi possível criar valor nas empresas visadas e salientar os cuidados a ter aquando da sua utilização, nomeadamente no que diz respeito a questões éticas e qualidade dos dados. 1 Introdução A crescente informatização das organizações promove o aumento considerável do volume dos dados que estas conseguem recolher e armazenar. Manipular esses dados e a partir deles obter informações que auxiliem as empresas na tomada de decisões, permitindo que se mantenham no mercado de maneira competitiva e inovadora, tornase um factor fundamental nos dias de hoje. Da dificuldade de obter conhecimento útil de grandes volumes de dados, surge a necessidade da existência de meios para o devido tratamento e extracção de informações, aparecendo assim as técnicas e ferramentas que permitem facilitar esta tarefa. Este artigo propõe dar a conhecer uma destas ferramentas, o Data Mining, particularmente no que diz respeito ao processo de extracção de conhecimento para o alcance de uma maior eficácia no suporte de decisões. 2 Introdução ao conceito Data Mining Data Mining, também conhecido como Knowledge Discovery (Extracção de Conhecimento) corresponde ao processo de análise de dados de diferentes perspectivas e os aglomerar em informação que sirva de apoio à tomada de decisões de uma forma inteligente, reduzindo custos, aumentando lucros, entre outros. 69

70 Tecnicamente este processo corresponde à descoberta de relações e padrões existentes entre os diferentes valores dos vários atributos das classes existentes numa base de dados. Figura 1. Processo de Extracção de Conhecimento Apesar de uma aparência relativamente moderna, esta tecnologia é já largamente utilizada em domínios como o comércio de retalho, telecomunicações e banca, gerando relatórios de vendas e análises de perfis dos clientes. Dada a contínua inovação em termos de plataformas tecnológicas, gerando um maior poder de processamento e capacidade de armazenamento, existe um acompanhamento contínuo desta tecnologia, levando cada vez a melhores resultados num menor intervalo temporal. [1] 2.1 Utilidade da tecnologia A utilização desta tecnologia permite dar resposta a quatro tipos de problemas. Para os ilustrar, será estudado um exemplo, no qual se caracteriza um conjunto de dados relativos ao estado de um dia numa perspectiva meteorológica, podendo-se caracterizar um dado dia pela existência de frio, chuva, vento, entre outros, indicando de uma forma classificativa se este corresponde a bom ou mau tempo: Identificar as regras existentes num dado contexto, facilitando a percepção das características que levam a um dado estado em análise; Ex.: Se chover e fizer vento pode-se classificar o dia como com mau tempo. Classificar uma amostra desconhecida, tendo por base a sua parecença com outras amostras já existentes no universo da análise; 70

71 Ex.: Caso seja apresentado ao sistema um dia com as características vento e com chuva, será classificado como com mau tempo. Definir subconjuntos de elementos num dado conjunto que partilhem um dado número de parecenças; Ex.: Poderiam ser agrupadas todas as amostras com as variáveis frio e neve relacionando-as com a classificação com mau tempo. Inferir relações entre os diferentes atributos que compõe uma dada amostra. Ex.: A variável relativa ao frio poderia ficar relacionada com a neve. Tabela 1. Exemplo demonstrativo de tabela de dados Data Chuva Frio Vento Neve Resultado Verdadeiro Verdadeiro Verdadeiro Falso Mau tempo Falso Verdadeiro Falso Verdadeiro Mau tempo Falso Falso Verdadeiro Falso Bom tempo Falso Verdadeiro Verdadeiro Verdadeiro Mau tempo Estas questões aplicadas a vários domínios de actividade poderão dotar uma dada empresa de inteligência baseada em análises do ponto de vista matemático, afastandoa de conhecimento empírico. Os resultados práticos da aplicação das ferramentas baseadas nestes princípios, estudados futuramente, mostram-se úteis na previsão de variáveis como a procura de um dado produto, na identificação de fraudes, na descoberta das regras de um domínio, entre outros. 2.2 Como funciona? Antes de perceber o funcionamento desta tecnologia, considera-se necessária a clara distinção entre dados, informação e conhecimento [2], pelo que é feita uma breve discrição seguidamente: Dados correspondem a factos, números ou texto que poderá ser processado por um computador. Actualmente as organizações acumulam quantidades enormes de dados em variados formatos em diferentes bases de dados; Informação corresponde a associações e relações entre os dados, obtidos após o seu processamento e manipulação; Conhecimento corresponde a uma interpretação da informação associando-a a uma intencionalidade. O Data Mining analisa as relações e os padrões existentes em dados provenientes de qualquer fonte. A base analítica desta plataforma assenta em algoritmos não só de estatística mas também de machine learning e de redes neuronais. 71

72 Figura 2. Processo de Desenvolvimento de Projectos de Data Mining Para a aplicação de Data Mining num dado projecto, deverão ser seguidos seis passos fundamentais [3], descritos de seguida e ilustrados na figura 2: Compreensão do contexto, no qual é percepcionado o contexto onde se irão executar as operações, levando a resultados que respondam às necessidades reais; Compreensão dos dados, onde são percebidos os valores de cada um dos atributos das tabelas das bases de dados, obtendo noções qualitativas sobre os mesmos, agrupando determinados valores; Preparação dos dados, no qual os dados são limpos, são removidos atributos que não introduzam valor para a análise, é feita uma transformação dos dados numéricos em contínuos; Modelação, onde são seleccionados os algoritmos a aplicar aos dados adaptandoos ao conhecimento que se pretende inferir, gerado um plano de testes a executar nesse modelo e onde é construído o modelo propriamente dito; Avaliação, no qual o modelo é confrontado com uma amostra de dados, sendo avaliado em termos de velocidade de construção, velocidade de avaliação perante nova amostra e precisão dos resultados obtidos; Distribuição, onde, no final do processo, se apresenta um modelo com valor à organização que o pretende, elaborando um plano que considere a forma de utilização dos resultados. 2.3 Modelos de análise de dados Os modelos construídos utilizando Data Mining dividem-se em dois grandes grupos: Modelos preditivos: Tal como o nome sugere, um modelo deste tipo serve para a previsão do valor de um dado atributo, podendo, dependendo do tipo das suas previsões, ser dividido em dois grupos: 72

73 Classificador, no qual a previsão corresponde a uma pertença a uma dada classe; Regressor, no qual a sua previsão corresponde a um dado valor de entre um vasto conjunto possível. Modelos descritivos: Tal como o nome sugere, os modelos descritivos são utilizados para auxílio da compreensão do negócio. Estes baseiam-se na junção de algumas amostras, dadas características em comum. Dependendo do tipo como as descrições são feitas, podem ser considerados em dois grupos: Cluster, no qual são agrupadas várias amostras consoante características que tenham em comum, sendo também utilizados no processo de redução de complexidade dos dados; Associador, no qual são determinados níveis de relação entre dois ou mais atributos, tendo por base a quantidade de vezes que estes aparecem numa mesma amostra. 2.4 Algoritmos que implementam os modelos Tendo por base as noções transmitidas anteriormente, foram construídos e adaptados algoritmos que servem como ferramentas para a aplicação de Data Mining, entre eles destacam-se: Redes Neuronais: Modelos preditivos não lineares que aprendem as suas regras tendo por base o treino; Árvores de Decisão: Estruturas com formato em árvore que representam conjuntos de decisões. Essas decisões geram as regras para a classificação dos elementos do conjunto de dados; Nearest neighbor: Técnica que classifica uma dada amostra dada a sua parecença (medida pela distancia entre os seus atributos) a subconjuntos de dados formados anteriormente; Redes Bayesianas: Modelos construídos tendo por base a derivação de probabilidades condicionais de uma dada amostra tendo por base a observação das suas frequências. 3 O rasto digital Actualmente as organizações têm-se mostrado extremamente eficientes em capturar, organizar e armazenar grandes quantidades de dados. No nosso dia-a-dia é possível observar este fenómeno em diversas operações que realizamos. O telemóvel regista as últimas chamadas recebidas, incluindo a hora e o número de quem telefonou, o fax pode emitir um relatório diário de todos os documentos enviados e se as transmissões ocorreram com sucesso, o mesmo acontece com o e com a navegação na Web. [4] Mesmo que não nos apercebamos os registos são efectuados e estão na posse das diversas organizações. Individualmente estes dados não valem muito, no entanto as 73

74 empresas perceberam que estas enormes quantidades de dados acumulados escondem informações que podem ser muito preciosas. É neste contexto que surge o Data Mining, permitindo a gestão da informação, que deverá revelar estruturas de conhecimento que possam guiar as organizações nos seus processos e nas tomadas de decisão. 3.1 Uma nova era A sociedade de informação em que nos inserimos actualmente, não se caracteriza apenas pela mera disponibilização de dados e informação, mas sim pelo desencadeamento de um vasto e contínuo processo de aprendizagem. A ampla utilização das tecnologias de armazenamento e transmissão de dados e informação de baixo custo, permite uma generalização da sua utilização, originando inovações organizacionais, comerciais, sociais e jurídicas que estão a alterar profundamente o modo de vida tanto no mundo do trabalho como na sociedade em geral. Neste capítulo será focada a aplicação primária do Data Mining, que consiste essencialmente na sua implementação em empresas cujo foco principal é o cliente, nomeadamente na indústria de retalho, na indústria financeira, na indústria das comunicações e no marketing das organizações. No ambiente agressivo e concorrencial em que se insere o mercado actual, as empresas são obrigadas a repensarem constantemente a sua oferta e a inovarem de diversas formas de modo a conferirem valor aos seus clientes. A Internet, o correio electrónico, os centros telefónicos, os acessos WAP e futuramente a televisão interactiva massificam as vendas, tornando o mercado vasto mas de difícil personalização de atendimento. O conhecimento dos clientes e dos seus comportamentos de compra são cada vez mais difíceis de compreender e de analisar. Torna-se, assim, fundamental dotar as empresas de uma solução com vista a atingir este objectivo. O Data Mining surge como resposta a este desafio, permitindo a extracção de informação relevante contida em grandes volumes de dados que poderá ser utilizada para determinar o perfil e preferências dos clientes assim como definir estratégias de marketing e reduzir riscos na entrada em novas áreas de negócio. 3.2 Data Mining no Mundo Real No mundo real, isto é, nas diversas organizações, o Data Mining é usado para descobrir padrões e relações nos dados a fim de ajudar na boa gestão, sendo um meio para que se alcancem boas decisões de actuação. O Data Mining permite que as empresas tenham um conhecimento pormenorizado das tendências de vendas, possam desenvolver campanhas de marketing mais inteligentes e consigam prever a lealdade dos clientes em cada momento. Especificamente, o Data Mining pode ser usado na identificação de: 74

75 Segmentação do mercado reconhecendo características comuns de consumidores que compram os mesmos artigos; Detecção de Insatisfação do cliente identificando os clientes que estão a pensar cancelar os serviços e mudar para a concorrência; Detecção de fraudes prevendo que transacções são mais prováveis de ser fraudulentas; Marketing directo identificando que publicidade deve ser incluída nos e- mails enviados, de modo a receber uma grande percentagem de respostas; Marketing interactivo prevendo o que cada indivíduo pretende visualizar quando acede a um dado sítio web; Identificação de lógicas de consumo relacionando itens comprados ou serviços adquiridos, procurando oferecer a novos clientes um produto/serviço relacionado com o que acaba de adquirir; Análise de tendências identificando mudanças em clientes típicos; Aceitação/Rejeição de serviços prevendo o futuro comportamento de um dado cliente, obter indicações sobre a prestação ou não de um dado serviço; Identificação de regras em ambientes complexos (como na genética), relacionar resultados com um complexo conjunto de variáveis, obtendo regras que definem um determinado ambiente; Análise de textos identificando aqueles textos cujo conteúdo não é válido (spam); Organização de informação em ambientes de grande fluxo e armazenamento de informação, catalogar de uma forma automática os documentos, facilitando uma futura pesquisa sobre os mesmos; Protecção anti-terrorismo identificando mensagens cujo conteúdo possa colocar em risco a sociedade; A tecnologia inerente à utilização de ferramentas como o Data Mining pode originar novas oportunidades de negócio como: Predição automatizada de tendências e comportamentos Data Mining automatiza o processo de descoberta de informação nas grandes bases de dados. As diversas perguntas que requeriam uma extensiva análise feita à mão, podem agora ser directamente respondidas partindo dos dados. Um exemplo típico poderá ser o marketing direccionado. O Data Mining permite analisar campanhas anteriores de modo a identificar alvos prováveis, maximizando o retorno em investimentos futuros. Descoberta de padrões anteriormente desconhecidos Data Mining permite descobrir, de forma automatizada, padrões muitas vezes desconhecidos, como por exemplo a identificação de produtos distintos que são frequentemente comprados em conjunto. Como é possível observar, a aplicação de Data Mining tem diversos campos de actuação, sendo uma ferramenta de extrema importância em diversos ramos, como a ciência, a medicina, o desporto, a banca, o ensino, o e-bussiness, entre muitos outros. 75

76 Seguidamente apresentaremos exemplos práticos da criação de valor obtida através da utilização de Data Mining nas organizações [5]: O Blockbuster Entertainment utilizou o Data Mining para procurar na base de dados de histórico de alugueres informação útil. Esta informação foi usada para enviar cartas a clientes, recomendando filmes a cada um deles. A American Express usou o Data Mining para sugerir produtos para os clientes possuidores de cartões baseados nas suas despesas mensais. A NBA usou o Data Mining para analisar movimentos de jogadas, o que permitiu aos treinadores planearem as jogadas e as estratégias conforme os adversários. A aplicação de Data Mining na cadeia de supermercados americana, a Wal-Mart, permitiu descobrir que a venda de fraldas descartáveis estava associada à de cerveja. Concluiu-se, que geralmente, os compradores eram homens, que saíam à noite para comprar fraldas e aproveitavam para levar algumas latas para casa. Os produtos foram colocados lado a lado, havendo um aumento considerável nas vendas destes dois artigos em simultâneo. A Sprint, um dos líderes no mercado americano de telecomunicações de longa distância, desenvolveu, com base no seu armazém de dados, um método capaz de prever com 61% de segurança se um consumidor trocaria de companhia telefónica dentro de um período de dois meses. Com um marketing agressivo, conseguiu evitar a deserção de clientes e uma perda de 35 milhões de dólares. O Bank of America usou técnicas de Data Mining para seleccionar entre os seus 36 milhões de clientes aqueles com menor risco de dar problemas, isto é, clientes que pudessem deixar de pagar prestações de um empréstimo contraído. A partir dos relatórios gerados, a empresa enviou cartas oferecendo linhas de crédito para os clientes que tinham filhos entre os 18 e 21 anos de idade e, portanto precisassem de dinheiro para ajudar os filhos a comprar o próprio carro ou ajudar com os gastos na faculdade. Em três meses o banco lucrou 30 milhões de dólares. O Tyles Independent School District é o maior distrito educacional público do leste do Texas com objectivos bem definidos sendo eles, melhorar o futuro da educação, bem como a qualidade de seus programas e garantir um auxílio comunitário. A utilização de Data Mining permitiu gerar meios para fortalecer os programas educacionais, aumentar a probabilidade de captação de fundos externos e fortalecer o suporte comunitário e as comunicações. 76

77 Para que as organizações se mantenham competitivas nos tempos de hoje, é necessário que obtenham informações objectivas da grande quantidade de dados que possuem nas suas grandes bases de dados. Espera-se que as informações auxiliem no processo de tomada de decisões, direccionando os investimentos de acordo com a procura e o perfil dos clientes. A falta de informações faz com que oportunidades de negócio sejam desperdiçadas e que o atendimento ao cliente tenha falhas em aspectos como, por exemplo, dificuldades em oferecer serviços de acordo com as reais necessidades e preferências dos clientes. 4 Problemáticas do Data Mining Apesar do Data Mining proporcionar às organizações inúmeras vantagens, a sua utilização levanta várias questões que não devem ser negligenciadas aquando da tomada de decisão da sua implementação, devido à gravidade do problema que equacionam. Uma dessas questões prende-se com o facto de se precisar de muitos dados para se obter bons modelos do domínio do qual se pretende extrair informação. Quando estes modelos envolvem recolha de dados pessoais, há uma grande probabilidade de alguns desses dados serem confidenciais, o que leva a sociedade a questionar se os dados estão suficientemente bem protegidos pela aplicação. Também quando uma organização faz um histórico das interacções de clientes, para, por exemplo, poder prestar um melhor serviço da próxima vez que este se dirija à organização, deve ter o cuidado de não ir contra a vontade do cliente no que diz respeito à sua privacidade. Outra questão está relacionada com o controlo que uma organização pode obter sobre indivíduos ao possuir muita informação sobre os mesmos. Os seres humanos, no geral, não gostam de se sentir controlados. Ao fazer a monitorização das acções realizadas pelos funcionários faz com que estes se sintam pressionados e embora por vezes isto seja necessário, a organização deve gerir esse controlo de forma consciente para que estes sintam que estão a ser inspeccionados só na medida do imprescindível e não mais do que o necessário. Para além das questões éticas referidas, há também que considerar problemas de ordem técnica. Visto que dados errados podem produzir resultados que não correspondem à realidade, as organizações têm especial interesse em que todos os dados utilizados pelos sistemas que utilizar sejam de qualidade. Para evitar que todo o investimento seja desperdiçado, as organizações devem investir bastante no tratamento de todos os dados antes de os colocar no sistema e transformar em informação. Uma das situações em que este tratamento é crítico é quando se procede à integração de bases de dados de diferentes fontes, onde se encontram conflitos e redundância de dados. Por exemplo, quando se cruzam bases de dados de Agências de Seguros com bases de dados de Bancos, é possível que para um mesmo individuo se encontrem 77

78 diferentes moradas. Nesta situação o sistema deve permitir definir uma forma de desambiguar os dados. Para o caso referido como exemplo, uma solução seria seleccionar a morada que tenha sido introduzida mais recentemente. Por fim, não nos devemos esquecer de uma questão que se coloca sempre que se pretende adquirir/produzir um produto: o seu custo. Nos últimos tempos, a evolução feita ao nível do hardware tem feito com que os custos relacionados com este tenham vindo a baixar consideravelmente. No entanto, como a capacidade de cálculo e armazenamento dos sistemas informáticos tem vindo a crescer rapidamente, as organizações têm-se tornado cada vez mais exigentes, pressionando os peritos para que estes consigam fazer sistemas mais amplos e ainda mais rápidos do que os existentes. Isto explica-se com o facto de que quanto mais poderosa é a capacidade de extracção de conhecimento de uma organização, maior é a utilidade da informação obtida dos dados. É por isso que as organizações fazem pressão para que seja possível aumentar o volume de dados a ser recolhidos e mantidos no sistema, o que por sua vez faz aumentar a pressão para que se produzam queries mais rápidas e poderosas, capazes de fornecer às organizações mais conhecimento. Esta situação produz uma espiral dos custos envolvidos, pelo que as organizações devem estar conscientes e atentas quando da implementação de um sistema de Data Mining[1]. Referências [1] Palace, Bill, Data Mining, UCLA Anderson, Junho 1996, (http://www.anderson.ucla.edu/faculty/jason.frand/teacher/technologies/palace/) [2] Contribuidores de Wikipedia, Data, Wikipedia, The Free Encyclopedia, 2006, (http://en.wikipedia.org/w/index.php?title=data) [3] Borges, José Luís Moura, CRISP, FEUP, 2006, (http://paginas.fe.up.pt/~ec/files_0607/slides/aula_1_2_crisp.pdf) [4] Colaboradores da Novabase, As aplicações do Data Mining, 2006, (http://www.novabase.pt/shownews.asp?idprod=resdatamining) [5] Colaboradores da SPSS, Customer Successes in Your Industry, 2005 (http://www.spss.com/success/) 78

79 e-procurement em Portugal através do PNCE André Mota, José Miguel Paixão e Nuno Rocha Faculdade de Engenharia da Universidade do Porto Rua Dr. Roberto Frias, s/n Porto, Portugal {ei02016, ei02058, Abstract. Nos últimos anos, foi desenvolvido um grande número de novos modelos de negócio, na sua maioria analisando organizações que operam no sector privado. O principal objectivo é a introdução de novas tecnologias, como o e-business, para a transacção de bens e respectivo processo de procurement. Mais recentemente, este tipo de modelos tem vindo a ser adaptados para organizações que operam no sector público, incluindo os próprios organismos governamentais. O surgimento do e-business e, mais especificamente, do e- Procurement, revolucionaram o modo como as organizações conduzem o seu negócio, desde as relações com os clientes até à gestão dos fornecedores, subcontratações e parcerias. Dos vários sistemas e tecnologias de e-business, o e-procurement é considerado um desafio primordial. O desafio foi aceite por parte de muitas empresas, sendo desenvolvidas novas ferramentas. Neste artigo pretende-se caracterizar o e-procurement, as vantagens que pode trazer a uma empresa através do alinhamento desta tecnologia com os processos de negócio e a estratégia da empresa e as últimas tendências que têm surgido no mercado. Este artigo tem também como objectivo a análise de um caso de estudo concreto, neste caso a implementação de uma plataforma de e-procurement no seio de vários Ministérios do Governo de Portugal, parte integrante do Programa Nacional de Compras Electrónicas (PNCE). Os vários projectos já implementados - que envolvem o Ministério da Saúde (MS), o Ministério das Obras Públicas, Transportes e Comunicações (MOPTC), Ministério do Trabalho e da Solidariedade Social (MTSS) e o Ministério da Educação (ME) -, e dos quais já se conhecem resultados, apontam para ganhos de eficiência resultantes em poupanças de milhares de euros. 1 e-procurement 1.1 Definição A actividade de procurement numa qualquer organização abarca todas as actividades associadas ao processo de aquisição de bens ou serviços necessários para a realização dos processos produtivos e de gestão, que, por sua vez, levarão à criação de valor acrescentado nos produtos e serviços que são colocados no mercado. O espectro do procurement compreende as actividades de identificação e caracterização de necessidades, selecção de fornecedores, selecção de produtos, negociação, requisição, aprovação, encomenda, recepção, factura e pagamento, inventário, entre outras. Trata- 79

80 se do ciclo de vida de um qualquer fornecedor e/ou produto. O peso que o procurement assume nas organizações depende da variados factores, como as características do mercado no qual a empresa se abastece, o tipo de produto e de dependência da empresa perante este, das políticas de aquisição em vigor ou do volume de informação que é manipulado, entre outros. Cada mercado apresenta a sua relação de poder entre fornecedores e clientes, fruto da escassez do bem ou serviço transaccionado e da fragmentação do tecido empresarial que opera nesse mercado. O sector que actua com base no recurso natural que é o petróleo tem práticas de procurement diferentes do sector alimentar. Resulta desta constatação que a abordagem ao procurement terá que ser analisada caso a caso. Várias são as preocupações consideradas na construção de uma política de procurement. Exemplos disso são o grau de agregação desejável das compras, os ciclos de aprovação, a avaliação de fornecedores ou natureza dos bens e serviços comprados. É comum distinguir o procurement directo do indirecto. As abordagens de compra têm uma distinção clara entre a aquisição de produtos directos, aqueles que são directamente incorporados nos produtos ou serviços finais da empresa, e os indirectos, os que são utilizados nas actividades de suporte da empresa, como material de escritório ou peças de substituição para equipamentos produtivos. Os primeiros são encarados como críticos para um bom desempenho da empresa e, como tal, procuramse estabelecer relações próximas com os fornecedores destes produtos e são colocados recursos humanos qualificados na gestão desses mesmos produtos, de modo a assegurar uma crescente qualidade no processo de aquisição e no produto adquirido. Os segundos são tratados com base no preço de venda, num mercado de oportunidade, não existindo uma relação duradoura para com o fornecedor. Claramente que o procurement indirecto não recebe as mesmas atenções do directo. É necessário também distinguir o método de compra. Há bens e serviços complexos, com especificações longas e detalhadas, com poucos fornecedores e muito qualificados, e com frequência de compra reduzida. Estes processos exigem interacção e avaliação mais prolongadas no tempo. Normalmente, são casos em que se recorre ao concurso por apresentação de proposta. Por outro lado, há aquisições que são apenas baseadas no preço, de produtos ou serviços com especificações simples e muitas vezes tácitas, e de contratação simples. Normalmente há muitos fornecedores possíveis e é elevada a frequência de compra. De alguma maneira, o método de compra cruza-se com os tipos de produtos directos e indirectos, sendo possível, por exemplo, adquirir bens directos através de uma compra simples. Se utilização do prefixo e na designação de uma actividade significa que essa actividade recorre a algum tipo de tecnologia de informação para se suportar parcial ou integralmente, então o e-procurement é anterior à vaga da Internet no mundo empresarial. A actividade de procurement faz parte do normal universo informatizado das empresas, algo consolidado mais tarde com as soluções de supply chain management oferecidas pelos fabricantes de ERPs. O Electronic Data Interchage (EDI) foi a primeira aposta em termos de suporte electrónico a este processo e para muitos ainda é sinónimo de e-procurement. A capacidade do EDI em transferir informação com formatos entendidos por dois sistemas, entre cliente e fornecedor, simplificou e reduziu os custos das transacções. No entanto, a sua difusão não foi elevada. A sua complexidade, custo e a ausência de standards fortes limitou a sua ampla utilização em termos de B2B. E-Procurement, tal como o vemos 80

81 actualmente, surge quando a Internet é adoptada pelos actores comerciais. As facilidades de partilha de informação que os protocolos e os serviços da Internet propiciam, como os portais e as ligações seguras, e as promessas ao nível do extended Markup Language (XML), relançam o e-procurement para os níveis actuais, especialmente nos mercados digitais que reúnem vários fornecedores e vários clientes. Isto é algo que o EDI não conseguiu, uma vez que se limitou ao modelo umpara-muitos (um cliente e os seus vários fornecedores). Sem qualquer dúvida, o potencial do e-procurement só é de facto realizado se houver integração entre os sistemas internos das organizações (o back-office) e o exterior. [1] Assim sendo, o e-procurement é o termo usado para definir a relação electrónica que se estabelece entre uma empresa e seus fornecedores. Nesta relação electrónica (que, como se viu atrás, pode ser conseguida através da Internet ou outros sistemas como EDI ou ERP, por exemplo) inclui-se a possibilidade de pesquisar produtos, comparar preços e características técnicas, averiguar sobre o stock, consultar e solicitar informações, fazer encomendas e comprar online. O e-procurement traz vantagens para ambas as partes, facilitando a gestão de inventários, processos de aprovisionamentos e de processos de venda. Os portais de e-procurement (hoje em dia a Internet é amplamente usada em detrimento do EDI, por exemplo) apresentam, de um lado, as empresas compradoras, e, de outro, os fornecedores. Quanto mais empresas aderirem a este sistema, maiores os seus benefícios. Com esse sistema, há grande pressão sobre a cadeia de fornecimento, criando-se oportunidades para a redução significativa de custos, e ampliando-se o leque de possíveis compradores e fornecedores, havendo a tendência de diminuição da dependência em relação a determinados fornecedores. O e-procurement pode ser ainda dividido em seis categorias principais [2]: Web-based ERP (Electronic Resource Planning): permite criar e aprovar requisições de compra, colocar ordens de compra e receber bens e serviços utilizando um sistema de software baseado em tecnologias relacionadas com a Internet; e-mro (Maintenance, Repair and Operating - Manutenção, Reparação e Operações): o mesmo que o web-based ERP exceptuando o facto de que os bens e serviços encomendados são relacionados com serviços MRO; e-sourcing: identificação de novos fornecedores para uma categoria específica de requisitos de compra utilizando tecnologias relacionadas com a Internet; e-tendering: envio de pedidos de informação e preços a fornecedores e recepção das suas respostas utilizando tecnologias relacionadas com a Internet; e-reverse auctioning: utilização da Internet para compra de bens e serviços de fornecedores conhecidos ou desconhecidos; e-informing: recolha e distribuição de informação relacionada com as compras de e para grupos internos e externos, utilizando a Internet. 1.2 Alinhamento Estratégico Para que uma organização consiga subsistir ao longo do tempo é necessário que apresente uma vantagem competitiva sustentável que lhe garanta melhor performance que a dos seus rivais. Isto só é conseguido se se adoptar uma estratégia para tal. O e- 81

82 Procurement por si só não consegue obter estas vantagens. Permite alguns benefícios "imediatos" ao nível dos custos e afins, mas se não for alinhado pela estratégia que a empresa pretende seguir, então estas vantagens serão apenas pontuais. Esta estratégia pode ser vista como uma procura contínua por uma renda (Mahoney and Pandian ), onde "renda" é definida como o retorno em excesso do ponto de breakeven (Peteraf (1993, p. 180)), ou seja, ganhos acima do normal. Esta procura é o foco da análise de vantagens competitivas, sendo então necessário compreender como a empresa gera as suas rendas antes de passar à implementação da solução de e- Procurement. Existem então 3 tipos de rendas: rendas de monopólio, rendas Ricardianas e rendas de inovação. Rendas de monopólio são estabelecidas quando as barreiras aos potenciais competidores são altas e as empresas posicionam-se tão favoravelmente o possível para criar um monopólio local, procurando muitas vezes bloquear os rivais para manter ou estabelecer uma forte posição no mercado. Rendas Ricardianas (assim chamadas devido ao economista britânico David Ricardo) podem ser estabelecidas mediante a procura da posse de recursos escassos, valiosos, inimitáveis e insubstituíveis, que permitam maximizar o valor de uma organização através da sua utilização. Empresas que combinem recursos de formas únicas podem obter uma vantagens sob aqueles que não são capazes ou não estão dispostos a fazê-lo. É uma perspectiva baseada nos recursos. Rendas de inovação são conseguidas através da descoberta e inserção no mercado de novas soluções. Isto é muito importante, pois a natureza da competição sugere que nenhuma estratégia imitável pode permitir lucros supra-normais durante muito tempo, sendo a inovação a única forma de criar vantagens competitivas sustentáveis ao longo do tempo. As ferramentas fornecidas pelo e-procurement revelam-se bastante promissoras para criar rendas de monopólio, já que permitem cortar nos custos e utilizar o poder de mercado em favor da organização compradora. Já em relação à abordagem baseada nos recursos as ferramentas de e-procurement revelam-se não completamente alinhadas. Isto acontece porque o comprador precisa não só de comprar os produtos certos como também de encontrar fornecedores com as capacidades adequadas. A estratégia de procurement seria encontrar e juntar os recursos do fornecedor com os que já se possui. Muitas vezes isto é conseguido à custa de alianças estratégicas e colaborações entre organizações. Utilizar ferramentas de e-procurement para gerar redes de inovação não é muito comum, dado que o que se pretenderia seria procurar nos fornecedores por inovações que poderiam ser usadas nas soluções da empresa e para tal é necessário ter mais algum conhecimento do que o comum. [3] A juntar a isto, pode ainda ser referido que a performance estratégica de uma organização é fomentada a partir do alinhamento entre a estratégia de negócio, a estratégia de e-procurement, as ferramentas de e-procurement, as capacidades estratégicas de IT e a tipologia estratégica. O processo de aprovisionamento assume então um enorme papel estratégico, que evoluiu desde as simples compras até uma actividade de geração de valor. Assim sendo, as organizações devem prestar atenção à estratégia e não só aos problemas de custo e eficiência, sendo necessário que os sistemas de e-procurement consigam responder a mudanças a curto prazo na procura ou fornecimento (flexibilidade), 82

83 adaptar-se às mudanças estruturais no ambiente em que a organização está inserida (agilidade) e potenciar o incremento dos níveis de performance. Com isto, as empresas podem usar com sucesso as vantagens trazidas pela tecnologia de e- Procurement, conseguindo assim uma vantagem estratégica no mercado em que operam. [4] 1.3 Best Practices A implementação de um sistema de e-procurement é algo que necessita de uma forte atenção por parte de toda a organização. Como tal, é necessário que, para se ter sucesso nesta adopção, todas as unidades tenham presente que se está a começar um esforço de complexidade multidimensional para mudar o modo de operar do negócio. A maioria das implementações de e-procurement B2B foram desenvolvidas assumindo que "se o construirmos, eles (os benefícios) chegarão", acreditando-se que a simples adopção de um novo sistema de software iria suportar um novo modelo de negócio, tendo os compradores acesso a novos fornecedores e os fornecedores acesso a novos negócios. Isto levou a que, após uma fase de crescimento extremo, se assistisse a uma fase de grande insucesso. Segundo um estudo elaborado pela McKinsey & CAPS no final de 2001, 70% destas empresas tinham simplesmente terminado a sua actividade ou alterado o modelo de negócio. Verifica-se assim que, independentemente de ser extraordinária, a tecnologia nunca pode ser a base de uma nova solução. É necessário que a as pessoas sejam a base, efectuando-se então uma reengenharia de processos e aplicando posteriormente a tecnologia certa. Assim sendo, algumas "best practices" [5] para este processo de e-procurement envolvem: focalização no "total cost of ownership" (TCO) - o custo total relativo à adopção de um sistema de e-procurement - e não em reduções incrementais de preço; focalização no melhoramento contínuo; ter uma base e um conhecimento dos fornecedores; focalização em estratégia no lugar da táctica; profissionais de topo que são membros respeitados de equipas multi-funcionais; desenvolvimento de uma rede de fornecedores, utilizando parcerias que trazem valores acrescentados; aplicação estratégica das mais recentes soluções tecnológicas. Tendo em conta variados casos de estudo de organizações que adoptaram com sucesso soluções de e-procurement (conseguindo o estatuto de "Best Practice") [6], é possível identificar alguns pontos comuns: é solicitado que a gestão de topo intervenha no processo, quer financiando, quer dando o seu apoio para ajudar à disseminação do uso do sistema e para garantir que este se adequará à organização. equipas com elementos de várias áreas da organização examinam e re-desenham os processos de negócio (tornando-os mais eficientes) antes da implementação de tecnologias de e-procurement. Garantem também que todos os stakeholders interessados intervêm no processo. Esta prática reduz a necessidade de 83

84 customização de soluções (que devem ser efectuadas só mesmo em casos necessários) e diminui o TCO. gestão da mudança. Este é um tópico importantíssimo que precisa de elevada atenção. Cabe aos responsáveis pelo sistema, com o apoio da gestão de topo, a tarefa de fomentar a utilização do novo sistema, agindo quase como "marketeers" diante dos utilizadores, que, naturalmente, resistem à adopção da nova ferramenta. Como é óbvio, isto é facilitado se o sistema for usável e tiver suporte rápido e eficiente. envolvimento dos fornecedores logo que possível nas iniciativas de e-procurement, dado que estes devem ter um papel activo na refinação dos processos e gestão da mudança (e também com o objectivo de "vender" os benefícios do novo sistema o mais cedo possível). envolvimento dos clientes e utilizadores finais para ajudarem na determinação dos catálogos de fornecedores a serem incluídos no sistema e também para ajudar na revisão/mudança dos processos de negócio. definição clara de métricas para medir custos, eficiência de processos e performance das tecnologias e processos de e-procurement. É importante esta definição de KPI's (key performance indicators) para fornecer feedback à gestão. existência de uma infraestrutura de operações/suporte robusta. limitação dos canais de procurement existentes após a implementação do e- Procurement, de maneira a canalizar quer fornecedores quer utilizadores da organização para o novo sistema. eliminação de "culturas locais", porque para o sucesso do sistema há que eliminar as questões de "favorecimento" de certos fornecedores. motivação das pessoas, porque sem motivação não há mudança, e sem mudança não há melhoramento. Verifica-se assim que a questão central tem a ver com as pessoas e os processos e não com a tecnologia, resultando disto que as organizações que estabelecem estas prioridades (estratégia sobre a táctica) estão melhor posicionadas não só para implementar com sucesso uma solução de e-procurement, bem como para obter óptimos resultados futuros a partir desta ferramenta. [5] 1.4 Benefícios Esperados São variados os benefícios que se podem esperar da aquisição e utilização de uma solução de e-procurement numa organização. Uma organização que necessite de efectuar compras para diferentes secções, perde em vários aspectos ao efectuar compras individuais em vez de as fazer em grandes quantidades de uma forma concentrada. O benefício central do e-procurement passa por se efectuarem compras em grandes quantidades, em vez de muitas compras individuais. Assim, consegue-se um benefício directo em redução de custos na aquisição de bens e serviços. É do conhecimento geral que negociações que envolvam maiores volumes podem gozar de um valor compensador para quem compra. 84

85 Esta vantagem que o e-procurement usufrui é inerente ao facto de se associarem grandes compras. Há também vantagens na redução do esforço administrativo, pois são criados menos contratos e o esforço na procura do melhor fornecedor é reduzido.[7] Podemos distinguir diversos benefícios e organizá-los com base em algumas características das aplicações de e-procurement: centralizado e on-line, e, baseado em sistemas de informação.[8] Existem também vantagens sendo um sistema centralizado e estando on-line para os intervenientes. Sendo o sistema central é de fácil acesso a todos os intervenientes estando bem definido o processo de compra. Há também um controlo mais apertado nas compras efectuadas fora dos contratos com os fornecedores. Passa pela organização a decisão de restringir os canais de compras, aumentando o controlo sobre todas as compras efectuadas. Quem faz as aquisições na organização tem ainda alguma liberdade para poder escolher os fornecedores, dentro dos que têm contratos com a organização. A informação pode ser também acessível de uma forma eficaz (recorrendo a catálogos previamente aprovados), com menor margem de erro. Como as soluções de e-procurement se baseiam em sistemas de informação, as compras ao serem efectuadas on-line permitem que o tempo de leilão seja muito mais curto, tornando-o muito mais competitivo. Sendo o e-procurement baseado em aplicações informáticas, é com alguma facilidade que a análise aos dados de todos os contratos é efectuada. Assim sendo, podemos concluir que, com todas estas vantagens, os negócios se tornem mais eficientes e com maior probabilidade de serem cumpridos. 1.5 Principais Obstáculos Em todas as implementações de sistemas em organizações, onde já existem processos minimamente definidos, aparecem diversos obstáculos. Quando se trata de um sistema com a importância associada a todas as compras de uma organização, mais e maiores obstáculos poderão surgir. Aqui serão descritos os obstáculos mais comuns e mais problemáticos na implementação destes sistemas nas organizações. Os maiores problemas que poderão surgir na implementação das soluções de e- Procurement nas organizações poderão não ser apenas inerentes às organizações. A fraca utilização dos fornecedores das tecnologias Web, poderá ser um entrave muito grande para o bom funcionamento da solução. Outro grande problema, este já interno, passa por uma grande definição de processos, que poderá levantar muitas questões nas responsabilidades dos membros das organizações, o que se poderá tornar numa tarefa bastante problemática. É sempre importante a presença dos stakeholders da organização e de elementos de várias secções da mesma. A integração das soluções para permitir o funcionamento correcto da solução deverá ser efectuada de uma forma muito pensada, sendo este um dos maiores receios das organizações na implementação destas soluções. O que pode prejudicar também é a existência de operações pouco robustas dentro da organização, provocando um fracasso em todas as que estejam relacionadas com a logistica da organização. 85

86 Caso esta aplicação não seja de fácil utilização o mais provavel é desmotivar os seus utilizadores na sua utilização, o que poderá ser uma entrave muito grande. Outros obstáculos que poderão surgir tratam-se da dificuldade de adaptação da organização às soluções existentes para e-procurement. Como por exemplo, a dificil adaptação à cultura das organizações, o processo de gestão de logistica associado, os custos associados à solução (manutenção e gestão do sistema), a dificuldade em encontrar mão de obra especializada. Sendo estes obstáculos muito reais, existem outros que são colocados pelas próprias organizações sem grande base de fundamentação, e que são cruciais para que possa ser implementado o sistema: pouca crença na segurança das transacções, pouca crença em benefícios (devendo estes serem medidos para confirmação da sua existência), dificuldade em obter um ROI (para fornecer um feedback correcto à gestão), dificuldade de encontrar soluções. [9] A motivação é um valor importante que muitas vezes pode falhar, e isso seria crucial para o fracasso da implementação. Exige-se portanto envolvimento desde a gestão de topo, até aos seus utilizadores finais. [6] 2 Caso de Estudo Para melhor compreender a influência do e-procurement numa organização real, segue-se a análise de um caso de estudo. O caso de estudo escolhido insere-se no âmbito do Programa Nacional de Compras Electrónicas do governo português, sendo efectuada uma contextualização e enquadramento deste programa na situação actual do país, definidos os seus objectivos e prioridades de actuação e descritos os resultados da implementação e os factores críticos de sucesso. 2.1 Programa Nacional de Compras Electrónicas (PNCE) Contexto do PNCE no "Plano de Acção para o Governo Electrónico" O Plano de Acção para o Governo Electrónico é parte integrante do Plano de Acção para a Sociedade da Informação, o principal instrumento de coordenação estratégica e operacional das políticas para o desenvolvimento da Sociedade da Informação em Portugal. O Plano de Acção para a Sociedade da Informação é composto por sete pilares: 1. Uma Sociedade da Informação para Todos; 2. Novas Capacidades; 3. Qualidade e Eficiência dos Serviços Públicos; 4. Melhor Cidadania; 5. Saúde ao Alcance de Todos; 6. Novas Formas de Criar Valor Económico; 7. Conteúdos Atractivos. 86

87 O Plano de Acção para o Governo Electrónico corresponde ao detalhe do Pilar 3 - Qualidade e Eficiência dos Serviços Públicos - do Plano de Acção para a Sociedade da Informação [11]. O PNCE é a concretização de um dos eixos do Plano de Acção para o Governo Electrónico, a nível de Gestão de Compras. Os vários eixos do Plano são os seguintes: 1. Serviços Públicos Orientados para o Cidadão; 2. Administração Pública Moderna e Eficiente; 3. Nova Capacidade Tecnológica; 4. Racionalização de Custos de Comunicações; 5. Gestão Eficiente de Compras; 6. Serviços Próximos dos Cidadãos; 7. Adesão aos Serviços Públicos Interactivos Enquadramento O PNCE surge da necessidade do Governo que, em 2004, reconheceu a urgência na actualização da forma como procede às suas compras, um peso significativo no seu orçamento, envolvendo uma série de alterações ao nível dos meios utilizados, processos e dos stocks praticados. A utilização de meios electrónicos no processo de compras permitirá a redução estrutural dos custos, assente numa gestão eficaz dos processos de aquisição internos e, em particular da relação do Estado com os fornecedores. A informação trocada interna e externamente, através dos meios electrónicos, permite identificar oportunidades de redução de custos e actuar de uma forma clara e controlada para o cumprimento desse objectivo. O Governo entende ser necessário acelerar a adopção dos procedimentos electrónicos no procedimento aquisitivo público e no tecido empresarial português tendo em consideração a importância da matéria e a desvantagem de Portugal face a outros Estados Membros. Estes países já definiram uma estratégia nacional e executaram, ou estão a executar, projectos-piloto relevantes. Este atraso tornar-se-á mais evidente quando o trabalho preparatório que tem sido desenvolvido noutros países começar a dar frutos que lhes trarão vantagens competitivas. Um exemplo crónico é o caso da Irlanda que definiu um investimento de 43 Milhões, tendo como objectivo a poupança de 400 Milhões entre 2002 e 2007 e cerca de 170 Milhões anualmente nos processos de aquisição. Este valor representa 2% da despesa total, equivalente a 8800 Biliões. Neste processo de modernização do sistema de compras têm-se verificado barreiras a nível da percepção do risco, da adequação dos bens transaccionáveis e dos custos de desenvolvimento dos sistemas, por parte dos fornecedores. Segundo dados do Eurostat, em 2001, os principais motivos de insegurança na adopção das novas tecnologias são precisamente a incerteza sobre os contratos, os termos de entrega e garantia, os métodos de pagamento e a adequação dos bens e/ou serviços adquiridos. Estas barreiras de penetração, quando comparadas com os benefícios da implementação dos sistemas de compras electrónicas e seu impacto na competitividade e criação de valor, levaram vários Governos a tomar medidas que levassem a minimizar o impacto das barreiras enunciadas, generalizando as compras electrónicas tanto no sector público como no sector privado. 87

88 Perante o actual cenário de globalização económica e de integração a nível Europeu, ignorar este factor de modernização e não alterar os princípios que regiam as compras do Governo, levariam à intensificação do atraso de Portugal relativamente aos restantes países da União Europeia. O Estado deveria ser o principal impulsionador do desenvolvimento e aplicação de princípios de comércio electrónico, dando o exemplo ao sector privado e levando à adaptação por parte da população aos novos procedimentos electrónicos, trazendo uma nova mentalidade na inovação e aumento da produtividade. A intervenção do Governo tem como vertentes dar o exemplo na adopção das compras electrónicas, diminuir a existência de barreiras à utilização dos novos paradigmas de negociação, garantir uma infra-estrutura tecnológica de suporte ao negócio electrónico (através do PNCE), actualizar o enquadramento legal necessário ao desenvolvimento das compras electrónicas e mobilizar os investimentos e capacidades do sector privado na implementação do PNCE [10] Visão e Objectivos de Actuação O sistema de compras electrónicas gera poupanças estruturais e ganhos na eficiência dos processos de compra do Estado, assim como aumentos de transparência e de qualidade nos serviços, permitindo o acesso de todo o tipo de empresas, grandes e pequenas, ao mercado das compras públicas. Este princípio sustenta um conceito de economia ligada em rede, através de processos electrónicos, que é mais eficiente, produtiva e competitiva, apta para os desafios europeus. Este conceito leva a uma total integração dos processos de negócio e de tomada de decisão de todos os parceiros de uma cadeia de negócio, levando a uma melhor gestão da informação na cadeia. Porém, o grau de fragmentação do tecido empresarial português e o comportamento deficiente dos diferentes agentes no desenvolvimento tecnológico determinam a importância do Governo na introdução do sistema de compras electrónicas [10] Prioridades de Actuação Compreendem-se então as prioridades de actuação do Estado, executadas de forma planeada e incrememental: Prioridade 1: Estratégia, Objectivos e Monitorização Definição da Estratégia Nacional de Compras Electrónicas, monitorizando o desempenho das compras electrónicas através dos respectivos programas-piloto, de modo a permitir a sustentação de um conjunto de decisões decorrentes de uma constante re-avaliação de todo o processo. Torna-se importante a criação de uma ferramenta de monitorização que garanta a eficácia da actuação e mobilização de recursos e esforços em áreas críticas de desenvolvimento, através da definição de um conjunto de métricas e indicadores. Prioridade 2: Compras Públicas Electrónicas Redefinição do modelo operacional das compras do Estado, com o objectivo de simplificar o processo de compras, a optimização de estruturas, o desenvolvimento de competências, adopção de tecnologias e gestão da mudança. Prioridade 3: Compras Electrónicas no Tecido Empresarial 88

89 Os efeitos da adopção de metodologias de aquisição de bens por via electrónica serão mais relevantes no sector privado, comparativamente ao sector público, tendo em atenção a capacidade das empresas em Portugal de acompanharem a evolução Europeia para evitar a perda de capacidade competitiva no mercado global. O estímulo dado pelo Estado depende da capacidade de resposta e de adesão do sector privado através de parcerias público-privadas na implementação do sistema de compras electrónicas. Prioridade 4: Condições de Base para a Generalização das Compras Electrónicas Reavaliação do enquadramento legal e regulamentar aplicável aos processos não electrónicos de compras do estado e de empresas privadas, bem como o desenvolvimento e sensibilização para a temática da certificação e facturação electrónica. Por outro lado é necessário ter em atenção as limitações dos investimentos na modernização das PME's, devido ao excesso de endividamento destas e restantes factores económicos actuais. Neste sentido é necessária a intervenção do Estado no sentido de regulamentar e financiar a modernização das PME's. A actuação consegue-se traduzir facilmente em quatro passos incentivados pelo Estado: o estudo cuidado da intervenção a realizar, o impulsionamento das compras electrónicas através do Portal do Estado, o incentivo à adesão do sector privado ao modelo de compras públicas e finalmente uma generalização do conceito e adaptação do mesmo na economia portuguesa [10] Implementação A implementação desta estratégia, do tipo incremental, permite a aceleração do processo de generalização das compras electrónicas. Fundamentos e Comunicação Desta primeira fase resulta o PNCE, com o objectivo de instituir a cultura de utilização do programa de compras electrónicas como meio de optimização de processos, de minimização dos custos e de criação de vantagens competitivas. Os 3 eixos de actuação nesta fase incluem a definição da estratégia, do modelo operacional para as compras electrónicas e dos sistemas de suporte. Portal Informativo Na segunda fase o principal objectivo é promover a massificação do acesso a informação (como os processos ou requisitos legais) sobre o sistema de compras, quer por parte da administração central quer por parte da iniciativa privada. Desta fase resultará a concretização de um Portal Informativo, que se desenvolve para o Portal Transaccional em fases posteriores, contendo informação sobre os concursos, os contratos, a legislação, a apresentação de melhores práticas, entre outras. Projectos Nucleares e Projectos-piloto A terceira fase contempla o testar das soluções de suporte às compras electrónicas descritas nas fases anteriores. Para tal, surgem uma série de iniciativas com os seguintes objectivos: Compras por Catálogo 89

90 Teste de soluções de compra por catálogo (após a identificação das unidades orgânicas e das categorias de bens a considerar) e consulta simples (RFQ), e permitir a escolha de uma solução transversal à Administração Central (organismos sem autonomia administrativa / financeira); Sistema Central de Concursos Públicos Electrónicos Criação de uma plataforma central de Concursos Públicos; Registo Nacional de Fornecedores Criação de um repositório central de fornecedores da Administração Pública que visa a optimização da disponibilidade de informação e a redução da duplicação de dados inerente à manutenção de listas separadas de fornecedores pelos diversos organismos públicos; Portal das Autarquias Constituição de uma plataforma de compras públicas da Administração Local, que permita a partilha de práticas e o acesso a ferramentas centrais de suporte ao processo de aquisição pública; Portal de Empreitadas (Obras Públicas) Satisfação dos requisitos específicos de um grupo homogéneo de utilizadores(no caso concreto, dos promotores de obras públicas tuteladas pelo Ministério das Obras Públicas, Transportes e Habitação); Grupo de Trabalho para a Inter-operabilidade e Estandardização das Compras Electrónicas Definição dos princípios de integração e inter-operabilidade das soluções da plataforma de compras públicas pelo grupo de interessados (stakeholders) Acções de Formação Desenvolvimento de acções de formação com vista a sensibilizar e desenvolver rapidamente competências no âmbito das compras electrónicas, com especial incidência a líderes dos pilotos de compras públicas, aos agentes de inovação em compras electrónicas e aos agentes de inovação em compras "comuns". Generalização Nesta fase pretende-se a extensão do âmbito dos projectos-piloto testados, desenvolvendo esforços no sentido de implementar melhorias contínuas na Administração Pública, permitindo a evolução e optimização dos cenários implementados. Optimização de Estruturas A operacionalização das compras públicas electrónicas implica evoluir as capacidades da actual estrutura organizacional, a qual ainda se encontra longe da ideal. A evolução das capacidades da estrutura deverá ter presente os seguintes princípios: elevados níveis de liderança; definição e implementação de novas abordagens de gestão e de prática das compras; capacidade de gestão de interfaces e de relacionamentos; capacidade de gestão tecnológica; equilíbrio entre os vários objectivos da Administração Pública. 90

91 Os benefícios associados às compras electrónicas na Administração Pública só poderão ser obtidos mediante a centralização de certas funções do ciclo de compras. A centralização de funções deverá ter os seguintes princípios: criar grupos de conhecimento especializado; potenciar economias de escala em actividades e recursos afectos às compras; construir uma visão global sobre as compras do Estado; facilitar a comunicação e partilha de conhecimento entre os vários organismos públicos; facilitar a cooperação a todos os níveis do sector público com vista a optimizar benefícios económicos Factores Críticos de Sucesso Prioridade 1: Estratégia, Objectivos e Monitorização Obtenção de uma visão integrada sobre a situação actual nas várias estruturas do Estado; Definição de mecanismos de medição e monitorização sistemática da evolução das compras electrónicas; Prioridade 2: Compras Públicas Electrónicas Iniciação do processo de mudança através de projectos-piloto, para aprender enquanto se transforma; Envolvimento dos ministérios e respectivos profissionais no processo de definição e transformação do modelo de compras públicas; Evolução do perfil e a perspectiva dos colaboradores que desempenham actividades de compras no Estado, de forma a garantir a massa crítica e a motivação necessárias à implementação; Prioridade 3: Compras Electrónicas no Tecido Empresarial Endereço de questões relacionadas com a segurança das transacções processadas electronicamente; Incentivo à possibilidade de associação das pequenas e médias empresas para dar resposta a concursos públicos de grande dimensão; Antecipação e coordenação dos incentivos à modernização das empresas fornecedoras do Estado; Prioridade 4: Condições de Base para a Generalização das Compras Electrónicas Adaptação da legislação existente no que diz respeito, por exemplo, à diminuição dos prazos obrigatórios em algumas actividades quando estas são realizadas electronicamente; Criação das condições infraestruturais necessárias à modernização das empresas nacionais; Garantia de massa crítica de fornecedores com capacidade para suportar as compras públicas electrónicas; Estímulo à adopção de modelos de gestão competitivos a nível internacional. 91

92 2.2 Projecto Piloto de Compras Electrónicas no Ministério da Educação Neste capítulo pretende-se descrever com algum detalhe um dos projectos-piloto postos em marcha no âmbito do PNCE: o Ministério da Educação. Estes projectos têm como objectivos: 1. Gerar poupanças e aumentar a eficiência no processo aquisitivo público; 2. Aprofundar o conhecimento da estrutura de custos e dos processos aquisitivos existentes; 3. Desenvolver competências internas nas entidades envolvidas; 4. Construir uma base de conhecimento de melhores práticas de compras e adequar o enquadramento legal a incorporar no modelo operacional; 5. Avaliar o grau de adesão da Administração Pública ao processo electrónico de compras por catálogo, consulta simples e negociação dinâmica; 6. Minimizar as barreiras à adopção das compras electrónicas nas entidades públicas; 7. Avaliar a capacidade dos fornecedores se relacionarem electronicamente com a Administração Pública; 8. Avaliar os benefícios económicos potenciados pela racionalização da estrutura de custos e pela agregação de compras em determinadas categorias de bens e serviços. Estes objectivos servem um propósito comum, já citado anteriormente, que assenta em três pilares fundamentais: disseminar conhecimento e massa crítica na temática das compras electrónicas, identificar parceiros e agentes para adopção das compras electrónicas e, finalmente, atingir a poupanças e aumentos de eficiência dos processos aquisitivos do Estado Português. Para demonstração de métodos e de resultados já mensuráveis foi escolhido este Ministério devido à qualidade da informação disponível para análise e dos ganhos significativos nos processos de aquisição Enquadramento e Resultados do Projecto Piloto [12] Resumo das actividades realizadas Este projecto foi desenvolvido em 3 fases, durando no total 6 meses e meio, onde as duas primeiras fases (análise e preparação) se dedicaram à caracterização da situação preliminar à implementação, à definição da estratégia e à implementação do piloto, e a última fase à utilização real da plataforma. Fase 1 - Análise da situação inicial Nesta primeira fase, procedeu-se a um levantamento da situação préimplementação dos diversos organismos sobre a tutela do ME a nível dos processos de compra (tempo e preços), das despesas e dos Sistemas de Informação; verificaramse e caracterizaram-se as linhas de orientação Fase 2 - Implementação da solução-piloto Na segunda fase, efectuou-se uma preparação dos organismos e dos fornecedores para a realização de aquisições por via electrónica. A fase de preparação teve como objectivo a inclusão dos participantes no processo, identificação de perfis e definição de workflows de cada organismo. Desenvolveram-se acções de formação a utilizadores-chave, manuais de utilização e suporte, e contactaram-se os fornecedores para preparação dos respectivos catálogos. Foi então decidido que as compras seriam Materiais de Escritório e Consumíveis de Informática. 92

93 Fase 3 - Execução O projecto-piloto terminou com a realização de compras através do portal, através dos processos de negociação dinâmica e de compras por catálogo. Âmbito do projecto-piloto Este projecto contou com a presença de 14 organismos sub a tutela do Ministério da Educação: Secretaria Geral do Ministério da Educação (SG); Gabinete de Informação e Avaliação do Sistema Educativo (GIASE - DAPP); Inspecção Geral de Educação (IGE); Gabinete de Gestão Financeira (GGE- GEF); Direcção-Geral de Formação Vocacional (DGFV); Gab. Assuntos Europeus e Rel. Internacionais (GAERI); Direcção-Geral de Inovação e Desenvolvimento Curricular (DGIDC DEB); Gabinete de Avaliação Educacional (GAVE); Direcção-Geral Rec. Hum. Educação (DGRHE DGAE); Direcção Regional de Educação de Lisboa (DREL); Direcção Regional de Educação do Norte (DREN); Direcção Regional de Educação do Centro (DREC); Direcção Regional de Educação do Alentejo (DREALT); Direcção Regional de Educação do Algarve (DREALG). Como já dito anteriormente, a área de compras a testar seriam os Materiais de Escritório e Consumíveis de Informática. Os artigos considerados nesta categoria incluem arquivadores, blocos, cadernos, capas, CDs, DVDs, disquetes, impressos, invólucros, material de escrita (ex: canetas, esferográficas, lápis, lapiseiras, marcadores, etc...), papel (ex: A4, A3, branco, reciclado, etc...), pastas, separadores, tapes, tinteiros, toners, Zip Drives e outros. A totalidade das despesas neste produtos chegam aos 2% do total do ME. Resultados das acções implementadas Antes da implementação do projecto, e após a análise às falhas do sistema em vigor na altura, chegaram-se a dados concretos acerca da falta de eficiência no sistema. A nível de aprovisionamento, gastavam-se no processo, em média, 142 dias e Os Sistemas de Informação eram quase inexistentes, apenas havendo informatização no cabimento e controlo de recepção do material. A nível dos fornecedores, haviam 1178 fornecedores de material de escritório, com diferenças significativas a nível dos preços entre os diferentes fornecedores, como o caso dos toners, com diferenças de 43%. De facto, os toners e tinteiros e o papel A4 eram as aquisições mais representativas, com 36,2% e 13,8%, respectivamente. De modo a preparar os agentes para a adopção do novo sistema, identificaram-se 45 utilizadores compradores ou aprovadores, recolhendo e actualizando os seus dados, como a morada, por exemplo. Finalmente activaram-se 59 fornecedores e carregaram-se 33 catálogos, preparou-se formação a 28 utilizadores-chave e 60 utilizadores (50 horas) e disponibilizaram-se documentos de suporte à formação e manuais de utilização. Seguiu-se uma análise comparativa entre os custos nos processos de compra dos organismos e as opções definidas para o desenvolvimento das compras electrónicas 93

94 para estimativas das poupanças. A realização do projecto-piloto permitiu na prática validar a estimativa de poupanças calculadas (apenas na vertente preço), tendo-se registado uma poupança superior às previsões. De facto, a previsão baseada em análise da despesa, análise dos processos, experiência de projectos anteriores e benchmarking internacional apontou para uma média de 7% em poupança de preço. Face aos dados reais, e após a promoção e execução de 3 processos de negociação dinâmica e a realização de 11 aquisições por catálogo, chegou-se à conclusão que se pouparam entre 20% e 27% (negociação dinâmica, figura 1) e 18% (média catálogo, figura 2). Fig. 1. Poupança conseguida em processos de negociação dinâmica Fig. 2. Poupança conseguida em processos de aquisição por catálogo 94

95 Poupança Vs. Investimento realizado Dos resultados anteriormente descritos, já foi possível calcular que as poupanças nas aquisições ascenderam aos , resultantes dos 3 processos de negociação dinâmica (pouparam-se de cerca de ) e das aquisições por catálogo (595 em cerca de ). Considerando os processos de negociação com valores na ordem dos , envolvendo artigos em catálogo provenientes de 59 fornecedores e 88 utilizadores finais, estimaram-se poupanças num valor total de Factores críticos de sucesso Face aos resultados do projecto-piloto, deve ser dada especial importância aos seguintes aspectos: Enquadramento Legal Definição de Novos Processos e Procedimentos para a Administração Pública Acompanhamento das PME Liderança Única e Identificada Modernização dos Sistemas de Informação Gestão da Mudança Plano de Implementação e Objectivos Identificados Objectivo do Plano de Generalização [12] Motivação para a generalização A realização do projecto-piloto nos 14 organismos do Ministério da Educação permitiu avaliar, por um lado, o grau de adopção das Compras Electrónicas por parte de colaboradores da Administração Pública e Fornecedores, e por outro, analisar a adequabilidade das estimativas de poupança efectuadas. Do projecto-piloto tiraram-se duas conclusões principais: a primeira, a elevada adesão tanto por parte dos organismos do Ministério da Educação como dos fornecedores; a segunda, a superação das estimativas iniciais relativas à poupança nos processos de aquisição. Definição de políticas de sourcing A calendarização das políticas de sourcing do Ministério da Educação considerou a adopção como Prioridade I de 17 organismos centrais (incluindo os 14 participantes no projecto-piloto) e de 10 categorias de materiais às quais se junta o Material Didáctico pelo volume de compras que representa no Ministério da Educação e pelo conhecimento já adquirido no projecto-piloto. Desta forma, estima-se até 2007 um valor total de poupança de 28,8 M, partindo de pressupostos conservadores face à poupança apresentada pela UMIC. Implementação de sistemas de suporte O Ministério da Educação previu a necessidade de implementação de Sistemas de Informação que permitam o suporte ao Processo de Compras (Negociação e Aquisição) e a monitorização do desempenho dos diferentes Organismos: informação de compras (incluindo planeamento); sistemas de suporte a leilões, catálogos e pedido de proposta; sistema para monitorização das poupanças e integração com sistemas de backoffice. 95

96 2.2.3 Resultados da Fase de Generalização [13] Já foram publicados no Portal de Compras do Governo os resultados da fase de generalização, nos quais é possível quantificar o nível de poupanças atingido com os naturais impactos na gestão dos recursos financeiros do Estado Português. A nível de equipamento informático, o mais requisitado nesta fase da análise, foi possível reduzir custos em cerca de 15-20% na maioria do material transaccionado. Categoria Negociada Serviços de Limpeza Equipamento Informático Serviços de Recepção, Segurança e Vigilância Material de Escritório Papel de Fotocópia Consumíveis Informáticos Equipamento Informático Quantidade Negociada Poupança Obtida Data da Negociação - 18% Desktops, 13 Portáteis, 122 Monitores TFT, 122, 12 Impressoras Laser e 25 Memórias - Material de escritório para a totalidade do Ministério e Rede Pública de Escolas Vários tipos de papel de fotocópia para a totalidade do Ministério e Rede Pública de Escolas 17% Consumíveis informáticos para a totalidade do Ministério e Rede Pública de Escolas 116 Portáteis Portáteis 13% Projectores 15% Pontos de Acesso 68% Desktops 24% Monitores 11% Tabela 1. Resultados globais da fase de generalização 96

97 3 Conclusões O e-procurement pode-se tornar uma ferramenta de valor inquestionável para uma organização, permitindo-lhe uma redução de custos e esforço administrativo (entre outros). Para isso é necessário que não sejam descurados os objectivos estratégicos da empresa, tendo-os sempre em conta na implementação do sistema. Esta implementa- ção não pode ser um esforço único de um departamento, mas sim de toda a organização, com a gestão de topo a ter um papel fundamental na definição do sistema e na gestão da mudança sempre inerente à adopção de uma nova tecnologia com um impacto tão grande no dia-a-dia dos trabalhadores. É claro que isto não é tudo um "mar de rosas", existindo sempre alguns obstáculos dos quais vale a pena salientar a fraca utilização dos fornecedores das tecnologias Web e a incorrecta integração das soluções. O caso de estudo analisado consegue dar uma visão mais prática da implementação de uma solução de e-procurement, enquadrada numa organização tão complexa como é o Governo de Portugal (mais especificamente no Ministério da Educação) e no âmbito do Plano Nacional de Compras Electrónicas. Referências Bibliográficas 1. Amaral, L.A., Teixeira, Cláudia and Oliveira, J.N. (2003), "e-procurement: Uma reflexão sobre a situação actual em Portugal", Associação para a Promoção e Desenvolvimento da Sociedade de Informação. 2. "E-Procurement - Wikipedia, the free encyclopedia". Disponível online em Consultado em Dezembro de Knudsen, Daniel (2003), "Aligning corporate strategy, procurement strategy and e- Procurement tools", International Journal of Physical Distribution & Logistics Management, Vol. 33 No. 8, pp Phillips, Paul, Piotrowicz, Wojciech (2006), "E-Procurement: How Does it Enhance Strategic Performance?", Kent Business School, ISSN Allen, Robert G., (2003), "Best Practices e-procurement", Business Briefing: Global Purchasing & Supply Chain Strategies. 6. Aberdeen Group (2005), "Best Practices in E-Procurement: Reducing Costs and Increasing Value through Online Buying". Disponível online em: Consultado em Dezembro de KPMG (2001), "e-procurement for Higher Education". Disponível online em Consultado em Dezembro de BuyIt (Março 2002), "Measuring the Benefits: What to measure and how to measure it". Disponível online em: Procurement/docs/Measuring%20the%20Benefits%20-%20final.pdf. Consultado em Dezembro de IDC & Público, Painel e-business (2004), "eprocurement". Disponível online em: Consultado em Dezembro de UMIC - Unidade de Missão Inovação e Conhecimento, Programa Nacional de Compras Electrónicas, Junho de

98 11. UMIC - Unidade de Missão Inovação e Conhecimento, Qualidade e Eficiência dos Serviços Públicos - Plano de Acção para o Governo Electrónico, Fevereiro de Ministério da Educação / UMIC, Implementação e Operacionalização de Projecto Piloto de Compras Electrónicas no Ministério da Educação, Outubro de Portal de Compras do Governo, cao.htm. Consultado em Novembro de

99 Semantic Web: Web s Next Generation Hugo Rodrigues1, José Duarte 1, Mário Correia 1, 1 Faculdade de Engenharia da Universidade do Porto, Rua Dr. Roberto Frias, s/n, Porto, PORTUGAL {rodrigues, jose.duarte, Resumo. A Semantic Web representa uma visão em que software e pessoas conseguem ler, encontrar, compreender, e usar informação da Web para concretizar objectivos com valor para os utilizadores [1]. Para isso, é necessário que a informação disponível na web seja compreensível quer por pessoas, quer por software. A informação tem de apresentar um significado sobre o que representa, ou seja, estar catalogada semanticamente. No entanto, levantam-se algumas dificuldades relativas à implementação e plausibilidade do conceito de Semantic Web, nomeadamente a necessidade de definir uma ontologia suficientemente completa, sem que se torne confusa por ser demasiado complexa. As expectativas são bastante ambiciosas relativamente á Semantic Web. Uma das suas principais revoluções será a possibilidade de inferir conhecimento a partir da informação disponível, possibilitando a compreensão da informação por máquinas em oposição à compreensão humana. As máquinas (agentes de informação), poderão processar informação e chegar a novas conclusões, pela aplicação de diversas variantes da lógica e não fazer simplesmesnte o matching de palavras chave, como a maioria dos motores de busca fazem. Palavras-chave: Semantic Web, RDF, OWL 1 Introdução A Web tem a sua origem na necessidade de partilhar informação dispersa por múltiplos computadores. Quando Tim Berners-Lee projectou a World Wide Web (vulgarmente designada por Web), pretendia não só possibilitar a partilha de informação, mas também providenciar meios para que essa informação pudesse ser visualizada, interpretada e processada tanto por pessoas como por máquinas. Um sistema com estas características viria facilitar a interacção pessoa-computador, tornando-se assim uma ferramenta extremamente útil e poderosa. A Web conforme a conhecemos actualmente satisfaz apenas parcialmente esta visão. Torna-se então necessário adaptar a informação existente e os recursos usados na sua 99

100 divulgação, categorizando conteúdos e atribuindo-lhes significados. É esta a função da Semantic Web. Segundo o W3C (World Wide Web Consortium), a Semantic Web é uma estrutura que possibilita a partilha e utilização de dados sem barreiras de aplicações, empresas ou comunidades. Resulta de um esforço colaborativo liderado pelo W3C e apoiado por um grande número de investigadores e parceiros industriais. A Semantic Web baseia-se na linguagem RDF (Resource Description Framework), que integra variadas aplicações, usando XML (extensible Markup Language) para a sintaxe e URIs (Uniform Resource Identifiers) para nomenclaturas. The Semantic Web is an extension of the current web in which information is given well-defined meaning, better enabling computers and people to work in cooperation. Tim Berners-Lee, James Hendler, Ora Lassila, The Semantic Web, Scientific American, May 2001 Conforme a própria designação indica, a existência da Semantic Web implica a atribuição de significados (semântica) à web tradicional. Através da criação de uma estrutura universal e expansível de significados, contextos, relações, e classes, esta Web re-organizada contribuirá para o que se pode considerar uma "unificação da Web". As vantagens desta estruturação são imensas, destacando-se o facto de facilitar certas operações realizadas por humanos, e desse modo melhorar a experiência do utilizador da Web. 2 Exemplos de aplicações práticas Para ilustrar algumas das potencialidades da Semantic Web, tomemos um exemplo (adaptado) de Berners-Lee [2] de um paciente que necessita de marcar uma consulta médica e sessões semanais de terapia. O indivíduo acede a um agente de pesquisa na Semantic Web através do browser do seu telemóvel. Automaticamente esse agente localiza a informação detalhada do tratamento necessário comunicando de forma segura com o agente do médico responsável. Localiza de seguida os especialistas com boa reputação e respectivas agendas, fornecendo um plano de consultas detalhado, tendo em conta os compromissos na agenda pessoal do paciente. Este plano não é totalmente do agrado do paciente, uma vez que inclui consultas em locais distantes em horas de ponta, pelo que a busca é repetida, ajustando os parâmetros hora e local. Um novo plano é apresentado instantaneamente, o qual se adequa às preferências do paciente. Este aceita o novo plano e o agente trata de efectuar as marcações de forma automática. Note-se que uma tarefa exaustiva como a pesquisa de especialistas indicados, análise dos respectivos horários de consultas, comparação destes com a agenda pessoal do paciente e marcação das consultas é efectuada com uma simples ordem por parte do utilizador, restando-lhe apenas a tarefa de validar o plano proposto. Este exemplo, 100

101 simples mas suficientemente ilustrativo, ilustra o nível de flexibilidade e automação de tarefas que é possível atingir com estas tecnologias. 3 Estrutura da Semantic Web Actualmente não existe uma estrutura adoptada como standard universal. A estrutura por camadas apresentada na figura 1, proposta por Tim Berners-Lee e pela W3C é a mais frequentemente referenciada e usada. Fig. 1. Estrutura da semantic Web (Adaptado de Os componentes de cada uma das camadas são construídos sobre as camadas inferiores, estando portanto delas dependentes. Unicode e URI (Universal Resource Identifier): O uso de unicode permite lidar com caracteres internacionais, e os URIs permitem identificar e referenciar objectos na Semantic Web. XML (extensible Markup Language): Linguagem que combina texto com informações acerca do mesmo, capaz de descrever vários tipos de dados. Permite estruturar e descrever informação de modo muito mais flexível e completo que o HTML, daí que a sua utilização como base da Sematic Web pareça incontestável. XML Schema: Linguagem usada para definir a estrutura de linguages XML. Permite integrar as definições da Semântic Web com os standards XML existentes. RDF (Resource Description Framework): Linguagem que possibilita descrever todo o tipo de informação e meta-dados acerca de objectos. Nesta camada são classificados os recursos e links entre objectos. 101

102 RDF Schema: Framework que permite especificar vocabulário para linguagens para aplicações RDF. Ontologia: Meta-dados que fornecem os meios para evolução de um vocabulário de termos com uma semântica bem definida. Nesta camada são definidas relações entre conceitos. Lógica e Prova/Validação: Lógica usada para inferir conclusões e para aferir acerca da correcção e consistência dos dados; Assinatura Digital: Esta componente, transversal a algumas das anteriores é usada para garantir a integridade dos documentos, permitindo detectar alterações ilícitas. Segurança ou Confiança (Trust): Meios que permitem garantir a autenticidade dos dados. De momento, existem ou estão a ser desenvolvidos standards para todas as camadas apresentadas. Estes standards estão a ser criados partindo da camada base da pirâmide em direcção ao topo, conforme seria esperado. Os standards Unicode, XML, RDF e OWL para as ontologias estão já estáveis, bem como algumas alternativas para assinaturas digitais e métodos criptográficos. Já as camadas de Prova e Segurança encontram-se ainda difusos e não standardizados. 4 Tecnologias As tecnologias que irão potenciar a proliferação da Semantic Web surgem à medida que os standards são criados, existindo já actualmente ferramentas robustas tanto para criação e estruturação de conteúdos como para suporte dos mesmos. Dada a grande quantidade de tecnologias que a Semantic Web envolve (conforme é visível na Fig.1) torna-se impossível explorar a fundo cada uma delas neste artigo, pelo que apenas será feita uma síntese das características mais importantes. Começando pelas tecnologias de mais baixo nível, o elemento base da tecnologia são os triplos RDF (RDF triplets). Estes identificam um dado recurso e conforme o nome indica são constituídos por três componentes: um recurso (r), uma propriedade (p) e o valor (v) respectivo. Cada um destes componentes pode ser representado univocamente por um URI (Uniform Resource Identifier), que por servir de identificador universal desempenha um papel fundamental. A título de exemplo, o seguinte triplo (r, p, v) indica o original (propriedade original ) de um determinado livro: <http://isbn 6682>,<http:// /original>,<http://isbn 409X> O RDF e respectivos schemas por si só não são suficientes para satisfazer a visão da Semantic Web. Torna-se necessário um método de raciocínio, que posibilite retirar conclusões partindo de uma série de factos. As ontologias estão aqui presentes, e o standard OWL desenvolvido pela W3C pretende satisfazer essas necessidades. Esta linguagem assenta sobre RDF adicionando-lhe novas funcionalidades. É o resultado de diferentes projectos já existentes com o intuito de introduzir semântica no HTML. O OWL introduz os conceitos de Classes e Indivíduos. As Classes são usadas para classificar, hierarquizar e crias relações entre Indivíduos, permitindo definir 102

103 enumerações, restrições e uniões, entre outros. Apesar de o OWL representar uma lógica de primeira ordem, não é por si só um sistema lógico, e torna-se extremamente difícil criar sistemas baseados em ontologias. Existem por isso três níveis de complexidade da OWL: Full Inclui todas as potencialidades da OWL DL (Description Logic) restringe em alguns aspectos o anterior Lite Restringe mais ainda a DL. As ontologias resolvem uma grande parte da lógica necessária para tornar a Semantic Web usável, mas restam ainda aspectos pouco desenvolvidos, principalmente relacionados com a confiança e segurança dos meta-dados. Estas camadas superiores encontram-se ainda numa fase pouco madura. 5 Benefícios Podemos desde logo apontar 5 benefícios fundamentais: integração de conhecimento; armazenamento de conhecimento; inferência de conhecimento; pesquisa de conhecimento; perspectiva de conhecimento [3]. Em suma, a mais evidente alteração originada pela implementação da Semantic Web é o facto de tornar possível que programas de software manipulem o conteúdo da Web, ao passo que actualmente, a maioria desse conteúdo foi concebido para ser apenas entendido por humanos. Isto no sentido em que os computadores não possuem uma forma de processar a semântica, que seja realmente eficaz. O maior poder das linguagens da Semantic Web é que qualquer pessoa pode criar uma, sendo para tal simplesmente preciso que publique um RDF que descreve um conjunto de URIs, o seu significado, e como devem ser usados. Também a gestão do conhecimento será feita de forma mais fácil, já que as Ontologias permitem que os dados na Web estejam relacionados por via do seu significado, e não apenas meramente por links entre si. A World Wide Web, nos seus termos actuais, contém motores de pesquisa que permitem efectuar pesquisas contendo palavras específicas, mas no entanto, o conteúdo encontrado pode não corresponder ao conteúdo desejado. No caso da SW, o que é procurado é o significado semântico dos conteúdos de páginas, e não o conteúdo das páginas [4]. Assim, a SW irá fazer com que os motores de pesquisa sejam mais eficientes do que actualmente são, fornecendo aos utilizadores precisamente a informação procurada. Isto poque será possível encontrar páginas com palavras sintaticamente diferentes, mas semanticamente iguais. Ou seja, irão aumentar a exactidão e a quantidade dos 103

104 resultados de pesquisas, graças às suas descrições de serviço e anotação standardizadas. No que respeita a benefícios específicos para organizações, estas poderão, adoptando as tecnologias da SW, ter uma única forma de visualização dos dados, ao longo de toda a sua gama de aplicações, o que permite que obter informação precisa, reduz a redundância de dados, e possibilita significado semântico uniforme nessas aplicações. Assim, é facilitado o desenvolvimento e a manutenção nessas organizações. 6 Divergências A computação semântica é uma disciplina emergente, ainda não totalmente concebida, e assim sendo, existem várias definições e interpretações possíveis. Acontece portanto que pode ser difícil ver de que forma é que as tecnologias que a compõem, e que foram descritas neste relatório, possam possibilitar tamanhas capacidades. Alguns analistas que têm seguido de perto o trabalho da W3C, afirmam mesmo até que, passado estes anos de trabalho e de várias publicações, ainda não têm uma ideia exacta do que é pretendido para a Semantic Web. Além disso, existem várias críticas que proclamam que a Web, tal como a conhecemos actualmente, ainda tem uma longevidade considerável, e que as razões pelas quais se tornou tão bem sucedida foi por ser simples e robusta, e que a SW não será tão aplicável como as tecnologias actuais. Algo em que todos concordarão, é que é crucial trazer mais inteligência e ordem à Web, no entanto nem todos estarão de acordo que o caminho a seguir é a implementação da SW, afirmando até que a implementação de um agente inteligente que possa operar em toda a extensão da WWW é pura fantasia [5]. Além disso, alguns dos problemas que alguns críticos têm apontado é que a Semantic Web como um todo será incoerente, e que será frequente existirem procuras sem obtenção de qualquer resultado. Para muitos também, a mudança para uma Web mais "inteligente" prolonga-se há demasiado tempo. A SW pode até mesmo ser a solução para muitos aspectos relacionados com o e-commerce, mas mesmo assim, a maioria das organizações não se pode dar ao luxo de esperar pelo seu surgimento. Assim, muitas dessas empresas encontram-se a adoptar outras tecnologias, para satisfazer desde já as suas necessidades. Até mesmo muitos investigadores da área se encontram a tentar obter soluções a curto prazo para aumentar a inteligência das pesquisas na Web [6]. Os impulsionadores da SW afirmam que, tal como a Web usou as tecnologias da Internet existentes e acrescentou o seu sistema revolucionário de hiperligações, também a SW irá originar novas e mais poderosas formas de obtenção de informação. No entanto, afirmações deste tipo têm sido criticadas, principalmente devido a questões relacionadas com a privacidade pessoal e com o grau de complexidade da tecnologia necessária. 104

105 Outras das críticas apontadas à Semantic Web, centram-se nos seguintes tópicos: a sua praticabilidade: diversos críticos consideram que a SW no seu todo, ou até mesmo só em parte, é impraticável, seja pela introdução da abordagem com preferências pessoais que a SW advoga, seja próprias limitações impostas pela engenharia de software actual. integração semântica: dificuldade de integração da semântica, isto é, na integração das diversas ontologias. Assim, apesar de a visão da SW se basear num sistema descentralizado, em que múltiplas ontologias interoperam, é provável que a dita integração venha a ser dominada por algumas complexas ontologias, nas quais toda a gente terá que integrar a sua informação, o que seria contraditório, por não ser o sistema descentralizado anunciado. privacidade e censura: com a implementação da SW, tornar-se-ía muito mais fácil para governos, por exemplo, controlar a criação de informação, já que esta seria facilmente interpretada, e consequentemente bloqueada, por sistemas automáticos para o efeito. duplicação dos formatos de saída: podem ser necessários dois formatos para cada pedaço de dados. Um deles com a finalidade de ser visualizado por humanos, e outro para máquinas. Ora, isto, poderá ser um entrave para a adopção destas tecnologias por parte das organizações, já que isso atrasaria os seus processos. No entanto, muitas aplicações web que estão em implementação visam resolver este problema, criando para tal um formato capaz de ser lido por uma máquina no momento de publicação dos dados. 7 Tirando proveito da Semantic Web A Web é o maior repositório de informação alguma vez criado, com cada vez mais conteúdos em vários idiomas e relativos a várias áreas do conhecimento. No entanto, a longo prazo, é extremamente complicado fazer com que esse conteúdo faça sentido [7]. Os motores de pesquisa podem ajudar a encontrar conteúdo relativo a palavras específicas, mas esse conteúdo pode não ser aquele que desejamos. Assim que exista a Semantic Web, será possível classificar todo o conteúdo, e assim os motores de pesquisa serão muito mais eficientes. Uma das formas mais claras de como se poderá tirar proveito da SW, é porque esta permite que cada um tenha o conhecimento disponibilizado à sua maneira, isto é, é possível coordenar essa informação de acordo com alguém ou, por exemplo, com a sua profissão. No fundo, este é o objectivo final da SW - obter o conhecimento de forma a que satisfaça as necessidades de cada um. Isso será possível graças às diversas tecnologias mencionadas ao longo do relatório, que permitem que qualquer indivíduo construa uma ontologia ou base de conhecimento apartir do nada, o que, obviamente, representa uma grande revolução. 105

106 As tecnologias da SW têm desde já grande aplicabilidade, mas no entanto, ainda é necessário percorrer vários passos, nomeadamente, será preciso ter muito maior poder de integração de informação, tornar os sistemas mais transparentes (quanto às integrações feitas), maior poder de análise de dados dos computadores, e concepção de novas regras [6]. Contudo, e presumindo que a SW será de facto implementada, e ainda que essa implementação em toda a extensão da sua visão, seja ainda num futuro distante, podemos desde já apontar algumas das suas potencialidades que contribuirão para o desenvolvimento de software mais interoperável, adaptável e de manutenção mais barata, segundo a opinião de muitos. Ou seja, existirão já a curto prazo capacidades que permitirão às empresas terem o seu software mais integrável, interoperável, adaptável e com manutenção menos dispendiosa. 8 Aplicações Existentes Nesta secção encontram-se ferramentas úteis para o desenvolvimento de aplicações que usam aspectos da Semantic Web e exemplos de casos em que a utilização da Semantic Web se mostrou bastante adequada. Jena Jena trata-se dum framework para a Semantic Web em Java. Permite criar aplicações com características da Semantic Web, através da disponibilização dum conjunto de APIs, nomeadamente para manipulação de RDF, RDFS, OWL, SPARQL (para interrogar as ontologias, de forma semelhante ao SQL) e ainda dispõe dum sistema de inferência por regras [8]. É um framework open source desenvolvido inicialmente no âmbito do HP Labs Semantic Web Programme. Os dados RDF podem ser armazenados em bases de dados relacionais (HSQLDB, MySQL, PostgreSQL, MS SQL Server, Oracle), sendo igualmente possível converter querys em SPARQL em SQL relacional que é directamente executado na base de dados. Um tutorial de como usar Jena no desenvolvimento de aplicações Java pode ser encontrado em [9]. Sesame Sesame consiste num framework Java baseado em RDF, isto é, permite armazenar, interrogar e inferir, a partir de bases de conhecimento baseadas em RDF. As linguagens de interrogação suportadas são SeRQL (desenvolvida no projecto, e portanto a mais poderosa para Sesame), RQL e RDQL. Os repositórios de informação 106

107 podem ser armazenados em memória, disco ou bases de dados relacionais [10]. Na versão mais actual, ainda em alpha testing, existe um servidor HTTP com o qual os clientes podem comunicar para interagir com os repositórios Sesame por HTTP. Esta versão actual, a segunda release do produto, traz bastantes funcionalidades novas desde a primeira desenvolvida no âmbito dum projecto europeu designado On-To- Knowledge (http://www.ontoknowledge.org/). Neste momento está a ser desenvolvido pela Aduna (http://www.aduna-software.com/), uma empresa Alemã, especializada em tecnologias que facilitam o uso de informação, em especial através de ferramentas baseadas na Semantic Web. bio-zen Numa tentativa de representar dados, informação e conhecimento provenientes da investigação em todas as facetas das Ciências da Vida, foi desenvolvido o bio-zen ontology framework [11]. O objectivo do projecto, cuja primeira versão foi disponibilizada no mês de Novembro, é a unificação de informação dispersa por uma diversidade de estruturas de dados, formatos e bases de dados. O projecto faz uso da Semantic Web, para tornar possível o desenvolvimento e partilha de conhecimento, de forma descentralizada e sem barreiras, de informação experimental, hipóteses e modelos biológicos. Com a Semantic Web, são ultrapassadas dificuldades no uso de bases de dados relacionais, que não estão preparadas nem são adequadas, para representar informação das Ciências da Vida, assim como para fazer simulações, fulcrais nesta área. IkeWiki Trata-se dum Wiki, mais concretamente um Semantic Wiki. O IkeWiki (http://ikewiki.salzburgresearch.at/) permite aos criadores das páginas anotarem os seus conteúdos (páginas e links entre páginas) através de conceitos definidos numa ontologia RDF(S) e OWL, através do framework Jena. O objectivo do projecto é ser um complemento para a criação de conhecimento, como por exemplo, na Wikipedia. Assim, um utilizador comum criava o conteúdo das páginas e depois um especialista em gestão do conhecimento, anotava essas páginas, enriquecendo o seu conteúdo através da formalização do conhecimento presente no Wiki. Posteriormente, qualquer utilizador poderia fazer o download das páginas em RDF ou OWL, e usando-o para as suas próprias aplicações. 107

108 Referências 1. Thomas B. Passin, Explorer s Guide to the Semantic Web, Manning Publications Co. (2004) 2. Tim Berners-Lee, James Hendler, Ora Lassila, The Semantic Web, Scientific American Magazine, Maio de SemWebCentral.org, Semantic Web Benefits and Demonstration, Acedido a 21 Dezembro em 4. SocioSite Albert Benschop, The future of the Semantic Web, Acedido a 18 Dezembro em 5. CIOinsight Eric Nee, Web Future is Not Semantic, Or Overly Orderly, Acedido a 21 Dezembro em 6. TechNewsWorld Gene J. Koprowski, The future of Mankind Knowledge: the Semantic Web, Acedido a 19 Dezembro em 7. IBM Naveen Balani, The future of the Web is Semantic, Acedido a 19 Dezembro em 8. Jena, A Semantic Web Framework for Java, Acedido a 22 Dezembro em 9. IBM Philip McCarthy, Introduction to Jena, Acedido a 22 Dezembro em 10. OpenRDF, Sesame, Acedido a 22 Dezembro em 11. neuroscientific.net, bio-zen Ontology Framework, Acedido a 22 Dezembro em 12. Marc Fawzi, Wikipedia 3.0: The End of Google?, Acedido a 24 Outubro em 13. WonderWeb, Ontology Infrastructure for the Semantic Web, Acedido a 25 Outubro em 14. BigBlogZoo, The Safari Lodge is where you can ask questions, Acedido a 25 Outubro em 15. Piggy Bank - SIMILE, Piggy Bank - SIMILE, Acedido a 25 Outubro em 16. Frédérick Giasson, Ping The Semantic Web.com, Acedido a 25 Outubro em 17. W3C Semantic Web Activity, Wikipedia, Acedido a 20 de Novembro em 18. João Correia Lopes, Cristina Ribeiro, DAPI - Parte III, Semantic Web, Acedido a 20 de Novembro em 19. Ivan Herman, Tutorial on the Semantic Web Technologies, Acedido a 22 de Dezembro em 20. Minding the Planet Nova Spivack, The Ontology Integration Problem, Acedido a 20 Dezembro em html 108

109 Bioinformática José Pacheco, Pedro Pacheco, e Tiago Silva {jose.pacheco, pedro.pacheco, Resumo. Este artigo pretende dar a conhecer a bioinformática, os seus conceitos e principais áreas. Pretende também focar a área informática, mostrando as linguagens de programação, as bases de dados e as aplicações mais utilizadas hoje em dia. No final do artigo será apresentado um exemplo prático de uma tarefa típica de bioinformática. Palavras-chave: Bioinformática, Biologia Computacional, Biologia Molecular 1 Introdução Bioinformática: Investigação, desenvolvimento, ou aplicação de ferramentas computacionais e abordagens para expandir o uso de dados biológicos, médicos, comportamentais e de saúde, incluindo os necessários para adquirir, armazenar, organizar, arquivar, analisar ou visualizar esses dados. Biologia Computacional: O desenvolvimento e aplicação de métodos teóricos e analíticos, modelos matemáticos e técnicas de simulação para o estudo de sistemas biológicos, comportamentais e sociais. Retirado de National Institute of Health [2] 1.1 Enquadramento histórico Em Junho de 2000 as ciências da biologia e da medicina mudaram para sempre. Foi anunciada a conclusão do primeiro desenho do genoma Humano. A sequência de mais de 3 biliões de bases foi o culminar de mais de um década de trabalho, onde as principais questões eram se o financiamento se ia manter e a velocidade da tecnologia progredir. Este ponto foi o culminar de um longo processo iniciado em Neste ano, Watson e Crick publicam a estrutura do DNA. Em 1975, F. Sanger, desenvolve métodos para sequenciar o DNA. No entanto, é na década de 90, com o surgimento de sequenciadores automáticos que o processo ganha um forte impulso. No entanto, para tratar e armazenar o volume de informação extraída, eram necessárias capacidades computacionais cada vez maiores. Assim surgiu a bioinformática. 109

110 1.2 Bioinformática A biologia foi tradicionalmente vista como uma ciência observadora mais do que uma ciência dedutiva. Apesar de recentes desenvolvimentos não terem alterado esta noção básica, a natureza dos dados mudou radicalmente. Antigamente, os dados das observações eram pouco precisos e sujeitos a variadíssimos erros. No entanto, hoje em dia esses dados são muito mais quantitativos e precisos, e no caso das sequências de aminoácidos e nucleótidos, tornam-se até discretos. É possível determinar a sequência do genoma de um organismo individual, de forma exacta. Claro que não converteu a biologia numa ciência dedutiva, pois a vida obedece a leis demasiado complexas. Outro aspecto a ter em conta nos dados obtidos é a sua quantidade. Hoje em dia uma base de dados do genoma humano tem letras. Uma sequência de nucleótidos é cinco vezes maior. Para comparar, o número de caracteres do genoma humano é equivalente a doze anos completos de números do jornal The New York Times. [1] Fig. 1. Crescimento do GenBank, a base de dados do US National Center for Biotechnology Information. Imagine-se numa crise pandémica. Esta crise foi originada por um novo vírus sobre o qual não se tinha conhecimento. Para resolver a situação, os especialistas em biologia isolam a população atingida pelo vírus e recolhem amostra para o poderem identificar. Depois de identificado o vírus a sua informação genética é determinada. Com esta informação os programas informáticos entram agora em acção. A informação genética obtida A informação genética obtida começa a ser comparada com os dados existentes nos repositórios de informação, de forma a determinar semelhanças. Assim os especialistas podem perceber como é que o vírus actua e qual a forma de o tentar controlar. Podem desenvolver-se tratamentos para curar as pessoas ou evitar que o vírus continue a evoluir e a reproduzir-se. Neste contexto utilizam-se aplicações computacionais para se poder processar grandes quantidades de informação e recolher conhecimento acerca dos organismos. 110

111 2 Conceitos Básicos da Biologia Molecular O DNA é uma molécula helicoidal constituída por duas cadeias paralelas de nucleótidos. Existem quatro tipo de nucleótidos, que correspondem às letras A (para a Adenina), T (Timina), C (Citosina) e G (Guanina). O DNA é representado por sequências destes quatro nucleótidos. Apenas uma das cadeias necessita de ser considerada; a outra cadeia deriva sempre da primeira por emparelhamento das Adeninas com Timinas e Citosinas com Guaninas e vice-versa. Este emparelhamento designa-se por complementaridade reversa. Os genes são subpartes contíguas de uma cadeia simples de DNA servindo de modelos para a produção de proteínas. Estes estão presentes em ambas as cadeias de DNA. O conjunto de todos os genes de um dado organismo designa-se por genoma. A função do DNA entre os genes é desconhecida e a certas regiões intergénicas (chamadas não codificantes) é reconhecido um papel importante na regulação celular (processo que controla a produção de proteínas e as suas possíveis interacções com o DNA). As proteínas são produzidas a partir do DNA por meio de dois processos designados por transcrição e tradução. Nos humanos os genes são uma pequena parte do DNA total que existe na célula. Os cromossomas são cadeias compactas de DNA enrolado. O DNA é também capaz de se auto-replicar com o auxílio da enzima DNApolimerase. Os biólogos chamam à capacidade que o DNA tem de se replicar e aos dois processos ou transformações que sofre, o dogma central. Fig. 2. Dogma central da biologia molecular. O processo de transcrição consiste na formação do RNA a partir do DNA. Esse RNA formado é o mrna (RNA mensageiro), que tem como função indicar ao trna (RNA transportador) qual a ordem correcta dos aminoácidos a serem sintetizados em proteínas. Os genes são transcritos por um conjunto complexo de moléculas (enzima) designado por RNA-polimerase. A fase final chamada de tradução é levada a cabo por estruturas celulares chamadas de ribossomas (associação de RNA e proteínas). A tradução considera um tripleto de nucleótidos consecutivos do RNA e produz um aminoácido correspondente. Um tripleto é normalmente designado por codão. No RNA, existe um codão de iniciação e três de terminação, sendo que estes últimos não codificam nenhum aminoácido. Uma ORF (open reading frame) é uma sequência de codões que começa com o codão de iniciação e acaba com o de terminação. A ORF é constituída por uma sequência de nucleótidos que são usados pelo ribossoma para produzir a sequência de aminoácidos que constitui a proteína. Existem vinte aminoácidos, mas em raras circunstâncias podem existir mais. Uma vez que existem 64 codões diferentes e 20 aminoácidos, o processo de tradução é redundante dado que múltiplos 111

112 codões originam o mesmo aminoácido. A conversão dos nucleótidos do mrna em aminoácidos durante a tradução é mediada pelo código genético. Devido à redundância do código genético, certas mutações no DNA podem não alterar as proteínas resultantes. Uma vez produzida uma proteína, esta adquire uma estrutura única tridimensional. Na representação tridimensional podemos distinguir três diferentes tipos de componentes: α-hélices, β-sheets e coils. A estrutura primária da proteína é apenas a sequência linear dos aminoácidos que a constituem. Na estrutura secundária já se consegue distinguir os diferentes componentes dessa mesma sequência: hélices, sheets e coils. A estrutura terciária é a sua representação tridimensional. A função de uma proteína está relacionada com o modo como interage com outras proteínas e moléculas, de forma a manter a célula viva e a interagir com o seu ambiente. A função de uma proteína está fortemente relacionada com a sua estrutura terciária. Na genómica funcional, estuda-se a função de todas as proteínas do genoma. Um dos objectivos importantes da bioinformática é auxiliar os biólogos a decifrar a função das proteínas. 3 Principais Áreas A bioinformática está dividida em diversas áreas de investigação que permitem obter novos dados biológicos, de perspectivas diferentes (áreas de actuação diferentes). De seguida são apresentadas, de uma forma breve, as principais áreas da bioinformática: 3.1 Análise de Sequências Na área de análise de sequências, utilizam-se programas de computador para procurar genomas de milhares de organismos em grandes bases de dados, compará-los utilizando processos de alinhamento de sequências e posteriormente tirar conclusões. 3.2 Anotação de Genomas A anotação de genomas consiste em marcar genes e colocar anotações relativamente a outras características biológicas em sequências de DNA. 3.3 Biologia Evolucionária Computacional A biologia evolucionária computacional tem por base um conjunto de processos que permite tirar conclusões relativamente à origem e descendência das espécies, bem como as alterações que sofreram ao longo do tempo. 112

113 3.4 Medição da Biodiversidade A medição da biodiversidade é efectuada em ecossistemas bem definidos e os dados obtidos (p.e. nomes de espécies, descrições, informação genética) são armazenados em bases de dados. Programas de software especializados são utilizados para pesquisar, visualizar e analisar essa informação. 3.5 Análise da Expressão dos Genes Na bioinformática existem diversas técnicas que permitem determinar a expressão de diversos genes. Contudo, são técnicas que introduzem alguma subjectividade e ruído nos resultados obtidos. Sendo assim, a área de análise de expressão dos genes envolve também computação biológica onde se desenvolvem ferramentas estatísticas que permitem separar o sinal, do ruído. 3.6 Análise da Regulação Na área de análise da regulação celular, utiliza-se um vasto grupo de algoritmos para analisar os diferentes estados que uma célula possa ter e daí inferir quais os genes responsáveis pelas variações que a célula vai sofrendo. 3.7 Análise da Expressão das Proteínas Existem duas técnicas principais que permitem saber quais as proteínas presentes numa amostra biológica. São elas os microarrays de proteínas e a HT MS (high throughput mass spectrometry). A bioinformática está bastante presente nesta área da análise da expressão das proteínas, de forma a conseguir cruzar os dados obtidos pelas duas técnicas e assim permitir tirar conclusões. 3.8 Análise das Mutações no Cancro Sistemas automáticos são utilizados para ler grandes quantidades de sequências de dados e efectuar comparações, com vista a detectar pontos de mutação numa grande variedade de genes no cancro. 3.9 Previsão da Estrutura das Proteínas A bioinformática é também muito importante na previsão da estrutura das proteínas, através da utilização de processos de modelação. Podem ser tiradas novas conclusões baseados no princípio de que duas proteínas com estruturas semelhantes também têm funções semelhantes. 113

114 3.10 Comparação de Genomas A área da comparação de genomas utiliza diversos modelos matemáticos e algoritmos, para estabelecer correspondências entre genes de diferentes organismos e assim permitir o desenho de mapas que mostram os processos evolucionários ocorridos ao nível dos genomas Modelação de Sistemas Biológicos A área da modelação de sistemas biológicos tem como objectivo simular subsistemas celulares que permitem compreender a relação existente entre diferentes processos que ocorrem nas células e até mesmo simular vidas virtuais que possibilitam a compreensão de processos evolucionários Análise Avançada de Imagens A área da análise avançada de imagens envolve tecnologias computacionais que aceleram ou automatizam na totalidade o processamento, a quantificação e a análise de grandes quantidades de informação proveniente de imagens de diversas áreas relacionadas com a biologia. Esta análise permite obter medidas de um grande e complexo conjunto de imagens, com elevada precisão, objectividade e rapidez. Alguns exemplos de aplicação são: observação de comportamentos em vídeos extensos, de laboratórios de animais; análise e visualização de imagens clínicas. 4 Principais Técnicas 4.1 Alinhamento de Sequências Do ponto de vista biológico a comparação de sequências deriva do facto de que todos os organismos vivos estão evolutivamente relacionados. Isto implica que os genes de espécies aproximadas exibam semelhanças ao nível do DNA, que poderão ser também semelhanças ao nível das funções que possuem. O alinhamento de sequências possui uma diversidade de aplicações na bioinformática sendo considerada uma das operações mais importantes desta área. Este método de comparação procura determinar o grau de similaridade entre duas ou mais sequências, ou a similaridade entre fragmentos destas sequências. No caso de se comparar mais de duas sequências o processo é denominado alinhamento múltiplo. De notar que os conceitos de similaridade e homologia são diferentes. O alinhamento indica o grau de similaridade entre sequências, enquanto a homologia pressupõem a partilha de um ancestral comum. O grau de similaridade obtido pelo alinhamento pode ser útil para determinar a possibilidade de homologia entre duas sequências. 114

115 O alinhamento pode ser classificado em dois tipos: global ou local. No alinhamento global, as sequências envolvidas devem alinhar em todo o seu comprimento. No alinhamento local, procura-se alinhar apenas as regiões mais conservadas, independentemente da localização relativa na sequência. O processo consiste em introduzir espaços (gaps) entre os monómeros de uma ou mais sequências com o objectivo de obter o melhor alinhamento possível. A qualidade do alinhamento entre duas sequências é determinada pela soma dos pontos obtidos por cada unidade que possui par (match), menos as penalidades pela introdução de gaps e posições que não possuem par (mismatch). Existem diversos programas de computador que realizam esta tarefa de forma automática. Fig. 3. Alinhamento de duas sequências de proteínas. 4.2 Base Calling O sequenciamento é um processo que consiste em identificar a ordem dos pares de base (nucleótidos) de um determinado segmento de DNA. Os dados em bruto provenientes de um sequenciador de DNA são normalmente submetidos directamente a algum programa de base calling. O base calling consiste no processo de leitura desses dados e identificação da sequência de DNA gerada, atribuindo um valor de qualidade para cada posição nucleótida identificada. Quanto maior o valor de qualidade, menor a probabilidade de ter ocorrido um erro. Normalmente um sequenciador apresenta um programa de base calling associado. 4.3 Microarrays Um microarray é um conjunto de pontos microscópicos de DNA que estão colocados sobre um superfície com a forma de um array, permitindo a análise simultânea da expressão de milhares de genes. O fabrico de microarrays envolve diversas técnicas como a fragmentação do DNA por enzimas de restrição, a separação desses fragmentos segundo o seu tamanho por meio de uma corrente eléctrica em gel de agarose e, por fim, as técnicas de Southern Blotting e Hibridação. A técnica de Southern Blotting consiste em separar os fragmentos de DNA em duas cadeias e colocá-los sobre um substrato. A técnica de hibridação tem por base o facto de se o que se pesquisa é uma determinada sequência de DNA, então usa-se uma sequência que lhe seja complementar (sonda) marcada 115

116 com uma substância radioactiva ou corante, para que o conjunto da reacção sonda + DNA complementar pesquisado possa depois ser visualizado numa película, que constitui o microarray. Os microarrays são também utilizados para comparar DNAs de tipos de células diferentes ou com condições patológicas diferentes. A enorme quantidade de dados gerada pela utilização de microarrays é analisada por software específico que envolve métodos de inferência estatística. 5 Linguagens de Programação Para trabalhar na área da bioinformática é necessário desenvolver algum conhecimento profundo na utilização das ferramentas disponíveis na Web. No entanto, utilizar as ferramentas já existentes não é suficiente. É necessário desenvolver os próprios programas para lidar com os diversos problemas encontrados durante a análise molecular de dados. Para desenvolver estes programas, é necessário conhecer as linguagens de programação mais utilizadas. A mais comum e mais utilizada é o Perl. O Perl é uma linguagem poderosa que permite criar scripts simples e que tem como um dos pontos fortes a manipulação de texto, especialmente útil para a análise de sequências biológicas. Tem também a vantagem de correr em quase todos os sistemas. Existem ferramentas para facilitar o processo de desenvolvimento em Perl, nomeadamente o BioPerl Project[10], que permite desenvolver soluções orientadas a objectos, e possui módulos especialmente preparados para criar aplicações nesta área. Existe ainda uma biblioteca em Perl, Perl- DBI, especialmente desenhada para facilitar a integração com as bases de dados. Existem ainda mais duas linguagens que são habitualmente utilizadas para programar, Python e Java. Ambas possuem ferramentas próprias para facilitar o desenvolvimento de aplicações na área da bioinformática, nomeadamente o BioPython e o BioJava. Outra linguagem muito utilizada é o R. O R é uma linguagem de análise de dados e visualização, e é utilizada para computação estatística e gráficos, tornando-se útil para apresentar os resultados obtidos visualmente. 116

117 Fig. 4. Exemplo de um gráfico de micro-array, produzido pela linguagem R. 5 Bases de Dados Uma base de dados é um arquivo de informação, com uma organização lógica ou estrutura e tem associadas ferramentas para aceder a essa informação. As bases de dados em biologia molecular encontram-se disponíveis on-line de forma a poderem ser acedidas por todos os interessados. Estas cobrem assuntos como ácidos nucléicos e sequência de proteínas, estruturas macromoleculares e funções. Existem vários tipos de bases de dados nesta área: Bases de dados de informação biológica: o Sequência de proteínas e DNA, incluindo anotações; o Ácidos nucléicos e estruturas de proteínas, e anotações respectivas; o Bases de dados de padrões das proteínas; Bases de dados derivadas. Estas contêm informação recolhida das bases de dados de informação e da análise dos seus conteúdos. Por exemplo, padrões de assinatura característicos de uma família de proteínas ou mutações e variações do DNA. Bases de dados bibliográficas Bases de dados de web sites com, o Bases de dados contendo informação biológica o Links entre bases de dados Uma interrogação à base de dados procura identificar um conjunto de entradas (por exemplo uma sequência de estruturas) com base em características específicas ou sequências similares. Uma das interrogações mais comuns é: Tenho uma nova sequência, o que é que as bases de dados contêm que seja similar?. Isto permite ao investigador identificar e investigar as propriedades mais comuns, Uma base de dados sem processos eficientes para aceder aos dados é um cemitério de informação. Tornou-se claro que não se pode ter um acesso eficiente sem uma estrutura lógica de armazenamento de informação orientada para os acessos. Assim, é necessário pensar nas questões mais comuns que o utilizador fará e como os dados devem ser retornados para a aplicação. Uma grande variedade de interrogações podem surgir na bioinformática. Estas podem ser: 1. Dada uma sequência, ou fragmento, encontrar sequências na base de dados que sejam similares. 117

118 2. Dada a estrutura de uma proteína, encontrar estruturas de proteínas na base de dados que sejam similares. Esta é uma generalização da anterior, mas em três dimensões. 3. Dada uma sequência de uma proteína com estrutura desconhecida, procurar estruturas na base de dados que adoptem estrutura tridimensionais similares. 4. Dada a estrutura de uma proteína, encontrar sequências correspondentes na base de dados. As duas primeiras interrogações, são efectuadas milhares de vezes por dia e não colocam problemas. As outras duas são campos activos de investigação. Outra tarefa das bases de dados, é possibilitar a comunicação e troca de informação entre bases de dados diferentes, na tentativa de encontrar informação similar, que se possa interligar. A crescente importância do acesso a várias bases de dados em simultâneo levou à investigação de como podem estas conversar umas com as outras, sem sacrificar as estruturas de dados de cada uma delas. As maiores bases de dados existentes são: GenBank Criado pelo National Institutes of Health em Cresce a um ritmo exponencial, duplicando a cada 10 meses. Foca-se essencialmente em sequências de nucleótidos e proteínas. Funciona de forma colaborativa, aceitando submissões de todos os interessados. EBI (European Bioinformatics Institute) Fundado em 1980, foi o primeiro repositório de informação de sequências de nucleótidos. É financiado pela União Europeia. 6 Ferramentas Utilizadas Devido à quantidade enorme de informação que existe, sem o recurso a meios de partilha de informação, a investigação nesta área tornar-se-ia insustentável. Existem muitas bases de dados onde os dados podem ser armazenados e manipulados. Para isso foram desenvolvidas muitas aplicações de uso gratuito que permitem analisar dados nas diferentes áreas da bioinformática. Existem bastantes aplicações que servem de suporte às diversas áreas de investigação da bioinformática. Essas aplicações têm como principal função analisar e processar grandes quantidades de dados. Alguns exemplos são: BLAST, Interpro, RepeatMasker, PHRED, CAP3, ClustalW. O BLAST é a aplicação mais utilizada para fazer o alinhamento de sequências. Na mesma categoria temos o ClustalW. Apresenta uma interface web para possibilitar o alinhamento de sequências, sendo uma versão do Clustal, programa também utilizado por muitos bioinformáticos no mundo. Em projectos do tipo genoma e transcriptoma existem aplicações que processam de forma diferente os dados para obter os resultados pretendidos. O PHRED permite processar o base calling de forma a obter o cromatrograma respectivo. O PHRAP permite obter um agrupamento de sequências e montagem de contíguos genómicos 118

119 recorrendo à técnica de clustering analysis. Dentro desta área temos ainda o CAP3. Este programa permite fazer o mesmo que se faz com PHRAP ou seja, obtém um agrupamento de sequências e montagem de contíguos genômicos, contudo recorre a um algoritmo diferente. Temos um outro conjunto de programas que são utilizados durante a anotação genética. Aqui recorremos novamente a uma aplicação já mencionada anteriormente, o BLAST. Para além de fazer alinhamento de sequências, este programa é também utilizado para identificação de genes. O Interpro permite efectuar pesquisas sobre diversas bases de dados de informação biológica. O RepeatMasker é utilizado para identificar e mascarar regiões repetitivas que se encontram frequentemente em genomas. Existem ainda muitas outras aplicações informáticas que permitem a investigação científica dentro deste domínio. Contudo, em muitas situações é necessário que sejam desenvolvidas ferramentas informáticas para resolução de problemas específicos. 7 Exemplo de Aplicação Para concretizar a utilização da informática na biologia, será apresentado um breve exemplo de aplicação. Temos uma sequência de DNA e queremos saber a que gene corresponde essa sequência: A G G A A A A T G C A T T G G G G A A C C C T G T G C G G A T T C T T G T G G C T T T G G C C C T A T C T T T T C T A T G T C C A A G C T. Para ler a informação contida no DNA temos que descodificar toda a informação para encontrarmos os aminoácidos que o constituem. A roda apresentada na figura 5 auxilia essa tarefa. Se quisermos encontrar por exemplo o aminoácido correspondente à sequência de DNA TTG, começa-se no centro com a letra T e percorre-se todo o caminho até ao exterior seguindo as letras do DNA. Quando chegamos ao último anel da roda, temos o respectivo aminoácido. Fig. 5. Roda de tradução de sequências de DNA em aminoácidos. Descodificando a sequência de DNA obtêm-se os seguintes aminoácidos: M H W G T L C G F L W L W P Y L F Y V Q A. 119

120 Determinada a sequência de aminoácidos que constituem o DNA podemos utilizar ferramentas informáticas existentes para determinar qual a proteína que contém esta sequência. Recorrendo ao BLAST [8], encontra-se a proteína correspondente à sequência que é a Lep_Human, que diz respeito a um factor de obesidade. A partir deste momento podemos encontrar muita informação na Internet sobre esta proteína. Fazendo pesquisas em bases de dados de informação biológica podemos determinar que tipo de mutações se conhecem para a proteína, que tipo de doenças pode esta causar, entre muita outra informação específica. 8 Conclusão O avanço das tecnologias computacionais e metodologias utilizadas na bioinformática irá permitir uma recolha e processamento de dados mais eficiente, bem como uma maior capacidade de armazenamento, distribuição e análise dos resultados. As bases de dados existentes vão crescer cada vez mais e esses dados vão ter de ser muito bem geridos. Para isso é fundamental um investimento contínuo das autoridades. Estão também a ser desenvolvidos novos módulos para as linguagens de programação mais utilizadas para as tornar mais eficientes para esta área. Espera-se que a bioinformática, num futuro próximo, nos traga novos conhecimentos que poderão resultar em novos métodos de diagnóstico, formulação de novos medicamentos, vacinas, prevenção e tratamentos mais eficazes contra doenças e pragas. Referências 1. Lesk, Arthur M.: Introduction to Bioinformatics, Oxford University Press, Bioinformatics Definition Committee: NIH working definition of bioinformatics and computational biology, Julho Disponível em 3. Cohen, Jacques: Bioinformatics An Introduction for Computer Scientists, Brandeis University, Junho Fenstermacher, David: Introduction to Bioinformatics, University of Pennsylvania, Abril Bioinformática: Manual do Usuário, Biotecnologia Ciência & Desenvolvimento, Disponível em 6. Castro, Ana: Análise de Sequenciamento de DNA e Proteínas, Santa Casa de Belo Horizonte, Disponível em 7. Pinto, Teresa: O nosso futuro genético, Byweb, Disponível em 8. European Bioinformatics Institute, WU-Blast2 - Protein Database Query, Disponível em: 9. Coutinho, Pedro; Marques, Isabel: Descubra o gene mistério! Disponível em: 10. BioPerl Project, Disponível em: 120

121 Tecnologias web emergentes AJAX André Filipe P.C.A. Lamego , João Carlos Martins Eiras , Márcio André Brandão Ribeiro Seminários - Dezembro 2006 Licenciatura em Engenharia Informática de de Computação Faculdade de Engenharia da Universidade de Porto Abstract. O AJAX (Asynchronous Javascript And XML) é uma combinação de tecnologias suportada por diferentes navegadores. A sua adopção está em crescimento; no entanto, apenas adquiriu notoriedade com o lançamento público do Google Mail e Google Maps. Entretanto outros se seguiram como live.com, da Microsoft e o Yahoo Mail. O nome AJAX foi sugerido em Surge da combinação de diferentes tecnologias web, como HTML/XML, DOM, CSS, Javascript/Ecmascript, e XMLHttpRequest, ou W3C DOM 3 LS, desenvolvidas incrementalmente pela Microsoft e W3C. Consiste em deslocar parte do processamento da aplicação para o lado do cliente, construindo uma aplicação mais dinâmica e eficiente do ponto de vista do utilizador. Como consequência, devido à multiplicidade de navegadores, é difícil manter interoperabilidade. Para além disso os dispositivos portáteis geralmente não possuem recursos para correr aplicações em Ajax. Actualmente já se dispõe de frameworks que facilitam a implementação de aplicações AJAX, como o Google Web Tookit, o Dojo Toolkit, Yahoo! UI Library ou Atlas, ao fornecer uma interface igual entre diferentes ambientes, que já contorna problemas dos próprios navegadores e implementa funcionalidades básicas necessárias. Ao permitir interfaces mais ricas, os utilizadores aumentam a sua produtividade. 1 Introdução A Internet é uma rede que disponibiliza uma enorme quantidade de informação e aplicações, que tem crescido exponencialmente ao longo dos anos, cujas tecnologias tem evoluído incrementalmente. Como parte desta evolução, as aplicações web tem ao seu dispor uma quantidade cada vez maior de funcionalidades base implementadas nativamente nos navegadores. Pela necessidade de uniformizar essas funcionalidades, varias organizações e empresas tem criado especificações, que descrevem um conjunto discreto de funcionalidades a ser implementadas. Das organizações que existem, destaca-se a W3C criada em 1994 por Tim Berners-Lee, responsável pelas especificações do HMTL, XML, XHTML,DOM, CSS entre outros. Como parte da evolução e integração das especificações, surgem aplicações web mais ricas e interactivas, o que levou ao aparecimento do AJAX. O AJAX é um conceito, inventado por Jesse James Garrett, que abrange um conjunto de tecnologias para desenvolver aplicações web. 121

122 As aplicações desenvolvidas comportar-se-ão, aos olhos do utilizador, semelhantemente como aplicações locais normais. 2 Histórico Embora o termo AJAX só tenha surgido em 2005, as tecnologias em que se baseia são mais antigas. As primeiras técnicas que permitiam que uma página carregar outros conteúdos foram introduzidas primeiro no Internet Explorer 3 em 1996 através do elemento IFrame, que permitia que um documento HTML contivesse outros documentos. Um ano mais tarde, a Netscape insere o elemento Layer na quarta versão do seu navegador que permitia a distribuição dos conteúdos por layers. Este elemento, deixou de ser suportado após o começo do desenvolvimento do Mozilla. Estes dois elementos, quando utilizados juntamente com JavaScript possibilitavam um controlo básico no carregamento de conteúdos de fundo na página. Com o lançamento do IE 4, que foi o primeiro navegador com um DOM básico, surgiu o termo DHTML, que consiste na alteração de estilos e efectuar ligeiras modificações ao documento para construir efeitos visuais e páginas ligeiramente dinâmicas. Em 1998, a versão 3 do Opera foi lançada, sendo o primeiro navegador com suporte completo para CSS1. Em 1998, a Microsoft introduz MSRS (Microsoft Remote Scripting) que utilizava applets de Java, manipulados por JavaScript para leitura de conteúdos do servidor. Esta técnica era suportada pelo Internet Explorer 4 assim como pelo Netscape 4. Mais tarde, a Microsoft introduziu o controlo de ActiveX XMLHTTP na quinta versão do IE, que foi posteriormente copiado pela Mozilla, Apple e Opera, implementado como o objecto nativo XMLHttpRequest. Claro que tanta tecnologia, sem uso, não obtém reconhecimento. Por isso em 2004 é tornado público o serviço de inovador do Google, que tinha, e tem, uma interface altamente dinâmica, que permite gestão da conta de , e fornece um conjunto extra de funcionalidades úteis, tudo muito eficiente e intuitivo. Entretanto outros se seguiram. 3 Conceitos técnicos 3.1 Tecnologias usadas Como dito anteriormente, AJAX engloba um conjunto de tecnologias, que são as seguintes: (X)HTML, XML e CSS como linguagens de base para apresentação, visualização de todos os conteúdos e transporte de dados. Ecmascript (ou Javascript) como linguagem de programação suportadas por mais navegadores 122

123 DOM (Document Object Model) para permitir manipulação e controlo dos estilos, e dos documentos visualizados e lidos do servidor XMLHttpRequest ou DOM 3 LS para permitir leitura de documentos do servidor, o que permite ler apenas um conjunto de informação reduzido sem conteúdo visual. Assim, para correr uma aplicação Ajax só é necessário um navegador recente, como IE 6, Mozilla rv 1.8, Opera 9, ou Safari APIs A parte mais nuclear e importante do AJAX é os pedidos de documentos feitos ao servidor com scripts. É possível implementar essa funcionalidade usando: XMLHttpRequest DOM 3 Load & Save Iframes ou objects invisíveis LiveConnect do Netscape's ActiveX XML Data Islands Macromedia Flash Player Java Applets A mais popular actualmente é o XMLHttpRequest que é uma classe com a seguinte interface: Métodos/propriedades Descrição abort() Cancela o pedido que está a ser feito getallresponseheaders() Retorna todos os cabeçalhos HTTP, da resposta como texto, separados por newlines getresponseheader( headername ) Retorna o valor do cabeçalho HTTP passado durante a resposta open( method, URL ) open( method, URL, async ) Inicia o objecto em causa para fazer o pedido HTTP, ao URL com o metodo passados. open( method, URL, async, async indica se a chamada de open deve ser username ) assíncrona ou não. Se não for, send() bloqueia até open( method, URL, async, o pedido estar completo. Pode-se username, password ) alternativamente especificar um nome de utilizador e palavra-passe caso o URL necessite de autenticação. send( content ) Efectua o pedido setrequestheader( label, value ) Regista um cabeçalho HTTP, para ser enviado com o pedido por defeito. onreadystatechange Contém uma referência para uma função, que é invocada sempre que o pedido muda de estado readystate Retorna o estado do objecto: 0 = não inicializado 1 = aberto (open invocado) 2 = pedido enviado 123

124 responsetext responsexml status statustext 3 = recepção de resposta iniciada 4 = recepção de resposta concluída. Retorna o corpo da resposta HTTP como texto Retorna o corpo da resposta HTTP como um documento (nodetype igual a 9), tal como indicado na especificação DOM Retorna o número de estado do pedido HTTP, como 200 ou 404 Retorna o estado do pedido HTTP, como "OK" para 200, ou "Not found" para Lista de websites O AJAX, devido às suas potencialidades, foi adoptado por algumas das principais corporações com o objectivo de cativar o utilizador com interfaces intuitivas e rápidas. De todas elas, as mais populares são sem dúvida as desenvolvidas pelo Google para disponibilizar alguns dos seus mais populares serviços, como o GMail, o Google Docs & SpreadSheets, e o google maps. Segue-se uma lista de algumas páginas populares baseadas em AJAX. google - cliente de , página pessoal, agenda pessoal, serviço de documentos e folhas de calculo, e muitos mais live.com - página pessoal, motor de pesquisa, cliente de mail.yahoo.com - cliente de - folha de calculo online - comunidade online para partilha de noticias e informação relativamente à web - página pessoal - mapas, rotas rodoviárias 5 Bibliotecas Existem actualmente várias ferramentas e bibliotecas, quer proprietárias, quer livres, mais ou menos genéricas, que procuram facilitar o desenvolvimento de páginas baseadas em AJAX. Dentro dessa vasta gama destacam-se as seguintes: dojo toolkit [http://dojotoolkit.org]: é uma biblioteca de javascript que procura facilitar e acelarar o desenvolvimento de aplicações e páginas web baseadas em javascript ou AJAX. script.aculo.us [http://script.aculo.us]: é uma biblioteca construída em cima da biblioteca Prototype, e que fornece efeitos visuais dinâmicos assim e criação de elementos gráficos. 124

125 google web toolkit [http://code.google.com/webtoolkit/]: é uma biblioteca e ambiente de desenvolvimento, todo em Java, que abstrai toda a aplicação cliente sobre uma API em Java, e invoca processos do lado do servidor por rpc. atlas [http://ajax.asp.net/default.aspx]: nome de código para ASP.NET AJAX, é, como o nome sugere, um conjunto de extensões para ASP.NET desenvolvido pela Microsoft com o objectivo de facilitar a construção de páginas que implementem as funcionalidades típicas do AJAX. SmarClient [http://www.smartclient.com/]: é uma biblioteca proprietária desenvolvida pela Isomorphic que fornece funcionalidades básicas para a criação de páginas baseadas em Ajax. Backbase Enterprise AJAX [http://www.backbase.com/home/home.html]: ferramenta completa com o objectivo de facilitar o desenvolvimento de aplicações web ricas, focando principalmente na área empresarial. 6 Vantagens 6.1 Utilização da largura de banda Uma das grandes vantagens do AJAX é o facto deste aproveitar melhor a largura de banda, uma vez que possibilita que parte do processamento dessa mesma seja feita do lado do cliente. Em vez de se fazer uma aplicação web clássica, que a cada clicque refresca todos os conteúdos, estilos, imagens e outros, com AJAX é possível ler apenas um documento minimalista do lado do servidor, com a informação actualizada, sem informação visual pois está já está disponível. 6.2 Interface de utilização A principal vantagem, que foi provavelmente o motivo da fama, é o comportamento das interfaces, algo semelhantes às existentes nas aplicações locais. Isto é conseguido pelo facto de a página não ser completamente recarregada a cada clique. Apenas alguns elementos são alterados, em tempo de execução, com um intervalo de tempo quase nulo, sem latência de rede, o que permite adicionar efeitos gráficos à aplicação que cativem o utilizador. 6.3 Especificações abertas e tecnologias utilizadas Ajax, como já foi dito, não é uma tecnologia mas antes uma forma de desenvolvimento de aplicações web, que recorre a tecnologias já existentes e desenvolvidas ao longo dos anos, como o Javascript, XML, (X)HTML e CSS. Isto permite que as aplicações web continuem a evoluir, assim como os navegadores, mantendo parcialmente compatibilidade com navegadores mais antigos. 125

126 6.4 Soma das vantagens Somando as vantagens aqui descritas, chegamos facilmente à conclusão das enormes potencialidades desta nova técnica. De facto, se levarmos em conta a optimização da utilização da largura de banda, as interfaces mais intuitivas e rápidas, a compatibilidade com os principais navegadores (Internet Explorer, Mozilla, Opera, Safari e Konqueror) graças à utilização de especificações abertas e robustas, e a familiaridade dos utilizadores para com os navegadores, podemos imaginar as potencialidade do AJAX no desenvolvimento de aplicações web que substituam várias aplicações tradicionais utilizadas localmente. Já é esse o caso para varias aplicações de edição de texto e folhas de cálculo. 7 Desvantagens 7.1 Quebra de funcionalidades básicas Devido à construção das páginas de forma dinâmica, torna-se difícil algumas funcionalidades dos navegadores funcionarem correctamente. O primeiro exemplo opção para voltar a trás no histórico existente em todos os navegadores, geralmente delegada a um botão. Ao clicar no botão, os utilizadores esperam obter a página que visualizavam anteriormente. No entanto, o resultado dessa acção poderá não ser aquela que estariam à espera uma vez que as páginas dinâmicas não preenchem o histórico da forma tradicional (uma hiperligação, uma nova página, nova entrada no histórico). O utilizador está a ver sempre a mesma página, o que muda é o conteúdo. Para contrariar este obstáculo, programadores têm recorrido a frames invisíveis que preenchem o histórico com as alterações efectuadas. Outro problema das páginas dinâmicas, é a geração de um endereço que permita ser guardado em histórico os nos favoritos. Tal como no caso da navegação pelo histórico, o endereço guardado poderá não corresponder à página pretendida, pois poderá precisar de um conjunto extra de interacções para a vista antiga ser reposta. Isto acontece por o endereço armazenado corresponde ao estado inicial da página, e não aquele em que a página se encontra quando se guarda o endereço, uma vez que a página vai sendo actualizada de acordo com as interacções existente com o utilizador. 7.2 Custos Desenvolver aplicações utilizando AJAX pode aumentar os custos e tempo de desenvolvimento uma vez que: é necessário conhecer e integrar várias tecnologias o código desenvolvido do lado do cliente tem que funcionar nos vários navegadores que existem no mercado, o que multiplica a quantidade de testes a ser feita o navegadores não possuem ferramentas de depuração, o que atrasa bastante a resolução de problemas 126

127 todos os navegadores tem os seus bugs, diferentes de uns para os outros, em parte culpa da complexidade das tecnologias que tem que suportar, o que obriga a um esforço extra para contornar esses problemas 7.3 Bibliotecas Apesar do AJAX basear-se em tecnologias robustas que têm sido utilizadas com sucesso ao longo dos anos, as bibliotecas existentes encontram-se ainda num estágio inicial de maturação. Desenvolver uma aplicação baseada em AJAX com as bibliotecas e ferramentas actualmente existentes pode tornar-se num processo algo penoso e complexo quando comparado com a simplicidade de desenvolvimento de outros tipos de aplicações. 7.4 Motores de pesquisa Uma outra desvantagem no uso de AJAX consiste na impossibilidade dos motores de busca em indexarem a informação existente nas páginas. Os motores de pesquisa usam web crawlers para percorrer a web e indexarem os conteúdos, associados a um endereço. Mas esses programas não executam scripts. Caso executassem, ainda precisavam de input de utilizador, e contas de acesso, para ter acesso a toda a informação. Esta limitação, é um factor importante a ter em conta ao desenvolver uma página. Por exemplo, para um portal de vendas online, não é recomendado a utilização de AJAX uma vez que a falta ou dificuldade de indexação por parte dos motores poderá influenciar negativamente o seu negócio. 7.5 Acessibilidade Uma das maiores limitações do AJAX é a acessibilidade das páginas em si baseadas, ou seja, a usabilidade das páginas por pessoas com problemas motores ou visuais. Embora uma aplicação seja visualmente apelativa, essa aplicação web não passa de uma página. Essa página internamente é armazenada pelo navegador numa árvore, que contem uma ordem e estrutura. Muitos dos navegadores, não compreendem estilos ou javascript pelo que a ordenação dos conteúdos na estrutura do documento é muito importante, sendo apresentada não como o autor pretende mas sim de forma acessível, em que os conteúdos são apresentados sequencialmente, o que colidem então com texto não importante ou redundante, utilizado pelo autor para dar pistas visuais de como usar a aplicação, como títulos cabeçalhos, ou dicas. Este problema da ordenação é verificado com leitores de ecrãn, ou navegadores de texto. Do mesmo modo é exigido dos navegadores que suportem todos os tipos de scripts, o que não acontece com um dispositivo portátil. As aplicações feitas geralmente colidem com as normas WAI (Web Accessibility Initiative) propostas pelo W3C, quando o esperado é que lhe obedeçam. 127

128 7.6 Interoperabilidade Embora se possa pensar que o facto de AJAX ser baseado em especificações abertas, seja um bónus de interoperabilidade, a realidade é bastante diferente. Primeiro, poucos são os navegadores que suportem XMLHttpRequest, e as aplicações no geral não verificam por suporte a alternativas. Depois, a maior parte das aplicações é muito complexa e inclui quantidade elevadas de scripts, o que acaba de alguma forma por colidir cm um problema pontual que um dado navegador possa ter, pois são raros os indivíduos que testam o seu trabalho em 4 navegadores. Como consequência, algumas aplicações discriminam navegadores, só porque quem a desenvolveu determinou que não compensa para o negócio testar a sua aplicação com navegador A ou B, só porque tem menos de 5% de utilização do seu website. Depois ainda há o problema dos dispositivos portáteis e leitores de ecrã, visto atrás. 8 Conclusões Ajax é um conceito, que ganha todos os dias novos adeptos. No entanto, a sua adopção deverá ser seriamente ponderada, por diversos motivos. O desenvolvimento de portais recorrendo a esta metodologia é actualmente complexa e demorada, e apesar da existência de ferramentas e bibliotecas que procuram facilitar esse processo, a verdade é que elas se encontram ainda num estágio inicial de maturação, sendo ainda difíceis de utilizar, e em alguns casos, não possuindo documentação suficiente e necessária. Para além disso, dever-se-à ter em conta a área da aplicação, quais as suas finalidades, a que público se destina, assim como que necessidades procurará responder. Isto porque, o AJAX não é recomendável para certos tipos de portais, como são o caso dos que fornecem serviços relacionados com o comercio electrónico. Neste caso, o facto dos conteúdos das páginas serem gerados de forma dinâmica, torna-se difícil, se não mesmo impossível, a sua indexação por parte dos motores de busca, algo que pode prejudicar e comprometer os objectivos do negócio. Por fim, apesar de se basear em especificações abertas e consolidadas, a verdade é que nem todos os navegadores, principalmente os mais antigos, suportam de forma igual as páginas contruídas com base no AJAX. Concluindo, apesar do AJAX ser bastante promissor, caso geral o suporte ainda é fraco, o que leva a que a técnica tradicional seja o mais adequada para a maioría dos casos. 9 Referências 1 Why use AJAX? (12/2006) - 2 Wikipedia.org (12/2006) - 3 Dev2Dev, An Introduction To Ajax (12/2006)

129 Microsoft Windows XP ou Apple Mac OS-X: Qual o mais usável? Adriana Costa 1, Carlos Cordeiro 1, José Brito 1 1 Faculdade de Engenharia da Universidade do Porto, Rua Dr. Roberto Frias, s/n Porto, Portugal {ei02012, ei02025, Resumo. Muitas pessoas podem achar que comparar dois sistemas operativos tão utilizados como Microsft Windows XP e Apple Mac OS-X é sacrilégio, uma vez que tal como as pessoas, as opiniões são todas diferentes. Situações que para um utilizador acostumado a um determinado sistema operativo são simples, podem ser interpretadas como situações bastante complexas para um não tão acostumado. Dúvidas como Para onde foram as minhas janelas? ou O que acontece se eu clicar neste ícone? podem não ser assim tão triviais como grande parte pensa. É neste contexto que entra a noção de usabilidade, termo que designa a facilidade com que uma pessoa emprega uma ferramenta/objecto para desempenhar uma tarefa específica. Ou seja, um sistema operativo usável deve responder às necessidades quem acha estas perguntas básicas e a quem faz delas um grande dilema. Outros aspectos de extrema relevância serão comparados entre os dois sistemas: o tamanho dos ícones, que em OS X são maiores; a forma como ambos respondem a situações similares, situações como o simples arrastar de um scroll que em Windows parece ser muito mais eficaz. Através destas comparações concluímos que nenhum sistema operativo se destaca claramente do outro em termos de soluções de usabilidade. Cada um deles opta por soluções bastante diferentes para o mesmo problema, pelo que é o utilizador final que poderá dizer, qual do seu ponto de vista é o sistema operativo mais usável. Palavras-chave: Microsoft Windows XP, Apple Mac OS-X Tiger, Sistemas Operativos, Usabilidade. 1 Introdução Comparar sistemas operativos (SO) é sempre uma tarefa ingrata e polémica. Algumas pessoas consideram mesmo um sacrilégio ou ofensa, se se referir que este é melhor que aquele. Provavelmente essa discussão será ainda mais acesa se estivermos a falar dos dois principais SO do mercado: Microsoft Windows XP e Apple Mac OS-X Tiger. Obviamente que os mais fanáticos de cada um destes sistemas operativos, irão sempre dizer que o seu é, e será, o melhor. Mas essas opiniões carecem sempre de alguma falta de fundamento ou são tendências, uma vez 129

130 que se baseiam unicamente em escolhas pessoais e não em factos. Para além disso, será muito complicado convencer um utilizador inveterado de um determinado SO de que existem melhores alternativas no mercado. Por isso, este é um assunto que deve ser abordado abertamente, baseando-se em factos e abstraindo-se de preferências pessoais. Nesse sentido, tentaremos abordar este tema de forma imparcial, fundamentando a análise com base em factores de usabilidade, sempre que possível. Mas, afinal o que é usabilidade? E o que é necessário para que um SO seja considerado usável? Usabilidade é o termo que designa a facilidade com que uma pessoa emprega uma ferramenta/objecto para desempenhar uma tarefa específica [1]. No caso das Ciências da Computação, este termo refere-se à simplicidade e facilidade com que a interface de uma aplicação informática (por exemplo, um SO) pode ser utilizada 1, e cuja resposta corresponda ao que era esperado pelo utilizador. Para que isso aconteça, a aplicação deve cumprir alguns requisitos de usabilidade: ser eficaz e eficiente, segura, apresentar poucos erros, ser de fácil aprendizagem, ter operações fáceis de memorizar e ter utilidade 2. O nível de satisfação dos utilizadores irá variar de acordo com o sucesso de implementação destes requisitos, sendo esse o principal objectivo de usabilidade que determina o número de vezes que um utilizador irá usar a aplicação. Os SO não são excepção. Sendo estes a base de utilização de um computador, o factor usabilidade torna-se ainda mais crítico. Segundo Jakob Nielsen (considerado o pai da usabilidade ), quando se desenvolve uma aplicação, o retorno de investimento em usabilidade é cerca de 1000% (sim, mil por cento), pelo que hoje não faz sentido as empresas não terem colaboradores dedicados exclusivamente à usabilidade, ou lançar aplicações sem testá-las junto de utilizadores finais 3. Por isso, a definição das melhores soluções de usabilidade, é uma tarefa de enorme preocupação tanto para a Microsoft 4 como para a Apple. Aliás, foi esta quem primeiro revolucionou o mundo das tecnologias de informação, ao criar aplicações intuitivas e fáceis de usar, na década de Neste artigo vamos analisar a usabilidade da interface e algumas operações básicas, nos sistemas operativos Microsoft Windows XP (Service Pack 2) e Apple Mac OS-X Tiger. Não é nossa intenção dizer qual deles é o melhor, uma vez que diferentes utilizadores têm diferentes necessidades e, por isso, esta será uma questão que nunca terá uma resposta concreta, verdadeiramente aceite por todos. Contudo, é possível analisar as diferenças entre estes SO, usando como referência factores de usabilidade como: facilidade de aprendizagem, de navegação/utilização, qualidade visual e intuitiva da interface. Neste aspecto, as soluções de usabilidade de ambos os sistemas operativos irão certamente divergir. E porque as diferenças estão nos detalhes, são esses que irão afinal determinar porque motivo um SO é mais ou menos usável, no contexto de cada utilizador final Apontamentos de Interacção Pessoa-Computador, FEUP,

131 2 Análise dos Sistemas Operativos 2.1 O primeiro impacto: o Ambiente de Trabalho Fig. 1. Ambiente de trabalho Apple Mac OS-X. Fig. 2. Ambiente de trabalho Windows XP. O primeiro impacto é muito importante, do ponto de vista do utilizador, quando lida com uma aplicação informática. É importante que tenha um design agradável e que não pareça complicado de lidar, para que o utilizador não fique assustado logo quando inicia a aplicação. Tanto o Windows XP como Mac OS-X apresentam um ambiente 131

132 de trabalho simples, embora com estruturas bastante diferentes. Porém à primeira vista, o Mac OS-X é bastante mais atraente do ponto de vista estético, usando (poucas) cores e suaves, ao que a Apple denominou Aqua Interface. O Windows XP aposta mais na diversidade de cores, porém a cor azul da barra de tarefas (taskbar) combinando com o verde do botão de start (start-button) ambas bastante saturadas, não é a combinação ideal de cores. É para a taskbar que vão as janelas quando minimizadas, mas, se para os utilizadores habituados a este ambiente, esta barra é indispensável e uma arma de extrema organização, para os utilizadores principiantes esta pode ser uma dor de cabeça, porque podem não conseguir assimilar que o que está nela são as janelas que anteriormente ele próprio minimizou. O equivalente à barra de tarefas do Windows no Mac OS-X é a docking bar. Esta barra tem um benefício grande para aqueles que vão começar a trabalhar com Mac OS-X, uma vez que apresenta as aplicações nela constantes com ícones de maior perceptibilidade. Além disso, em Mac OS-X a animação da janela a dirigir-se para a docking bar, quando minimizada, é mais perceptível do que em Windows. No ambiente de trabalho de ambos os OS, é possível ver o menu de extras (Mac OS-X) e a barra de sistema (Windows XP), que estão situados ao lado do relógio. Fig. 3. Barra de extras, em Mac OS-X. Como podemos ver na figura 3, predominam os tons de cinzento na barra de extras. Ao contrário do que se possa pensar, isso não é por acaso: as cores atraem a atenção do utilizador, e por isso mesmo as cores só irão aparecer caso seja necessário chamar a atenção para alguma coisa, como por exemplo, bateria fraca. Fig. 4. Aviso de bateria fraca, em Mac OS-X. A barra de sistema de Windows XP é sobretudo usada para representar aplicações que estão a executar em background. Para aceder às aplicações usualmente utiliza-se um simples clique ou clique com o botão direito do rato, e isto fará despoletar as opções disponíveis para essa aplicação. Fig. 5. Barra de sistema, em Windows XP. Uma diferença entre os dois sistemas que apraz referir é que ao contrário de Windows XP, o Mac OS X permite visualizar no menu de extras o volume de som, enquanto que o Windows XP apenas informa se este está, ou não, ligado. 132

133 Fig. 6. Comparação da informação do volume de som, em Mac OS-X e Windows XP. 2.2 Ícones Um aspecto muito importante no ambiente de trabalho do Mac OS-X, é que os ícones não são apenas meras ilustrações representativas da funcionalidade desse ícone, mas sim imagens realistas daquilo que são e/ou contêm. Sendo esta uma forma muito atractiva de captar a atenção dos utilizadores, por vezes pode não ser a mais aconselhada uma vez que nem sempre as imagens são completamente intuitivas. Fig. 7. Exemplos de ícones de Windows XP e Apple Mac OS-X. Um factor também importante de usabilidade, no que se refere a ícones, é a escalabilidade: um ícone grande é mais facilmente acedido e compreendido do que um pequeno. A Apple teve este factor mais em consideração do que a Microsoft, já que os ícones de Mac OS-X são consideravelmente maiores do que os de Windows XP. 2.3 Janelas e barras de menu O Windows apresenta no canto superior direito de cada uma das janelas os três botões usuais de minimizar, restaurar/maximizar, fechar (da esquerda para a direita). Os utilizadores principiantes podem e ficam um pouco confusos quando minimizam uma janela e esta desaparece. Estes não têm logo a noção de que a janela foi para a taskbar, já que a animação não é muito perceptível. Em Mac OS-X, esses três botões encontram-se do lado esquerdo e têm as mesmas funcionalidades. Contudo, estão numa ordem diferente (fechar, restaurar/maximizar, minimizar da esquerda para a direita) e usa-se um código de cores para distinguir os botões, ao contrário de Windows, onde se usam ícones. Isto é, o utilizador não tem a 133

134 noção da função de cada um dos botões apenas olhando para eles. Só ao passar com o ponteiro do rato por cima dos botões é que o utilizador pode ter uma ideia da função de cada um deles. A opção de os colocar no lado esquerdo, foi tomada com a intenção de colocar o botão de interface Aqua do lado direito. Fig. 8. Botões de minimizar, restaurar/maximizar e fechar em Windows XP e Apple OS-X. Este botão funciona como eliminador de visualização das opções contidas no cabeçalho das janelas. Para os utilizadores este pode ser uma dor de cabeça, pois ao premi-lo por mera curiosidade podem esconder algumas funções importantes sem se aperceberem (e sem saber como voltar atrás). Fig. 9. Botão de interface Aqua. Relativamente às barras de menu, no caso do Mac OS X existe uma única no topo do ecrã que apenas muda o seu conteúdo conforme a aplicação que esteja activa. Fig. 10. Barra de menu única, em Mac OS-X. 134

135 Esta barra destaca o nome da aplicação que está a ser utilizada (no caso da figura o Finder), e não se pode mover, mantendo o ambiente de trabalho sempre arrumadinho. A sua grande desvantagem é a confusão que pode ser causada pelo facto da barra de menu não estar associada directamente a nenhuma janela e da aplicação activa poder não ter nenhuma janela aberta no momento. Em Windows XP existe uma barra específica para cada uma das suas aplicações. Fig. 11. Barra de menu própria da aplicação, em Windows XP. Com este tipo de barra torna-se muito simples identificar a aplicação que está a ser executada. É possível também passar de um menu para outro através de um simples clique, sem ser necessário mudar de aplicação primeiro. As suas desvantagens passam pelo facto de nem sempre ser fácil localizar um determinado menu e no facto do tamanho da barra mudar à medida que o tamanho da janela muda. Ambos os sistemas operativos deixam o utilizador mover e alterar o tamanho das janelas, é um processo muito importante quando se tem necessidade de trabalhar com várias janelas ao mesmo tempo. Entretanto esta acção é diferente nos dois sistemas. Em Mac OS-X as janelas estas só podem ser redimensionadas arrastando o canto inferior direito. Se uma janela estiver colocada muito perto do canto inferior direito do ecrã é necessário primeiro mover a janela para outro local e só depois redimensionar a janela, no caso de a querermos aumentar. Este processo seria mais simples se fosse possível redimensionar a janela em qualquer um dos cantos ao invés de ser só no inferior direito. Quanto ao redimensionamento no Windows XP pode ser feito em qualquer um dos limites da janela. Isto tem como vantagens principal a capacidade de redimensionar a janela em qualquer posição que esta ocupe no ecrã. A desvantagem é que devido à proximidade dos botões de minimizar, restaurar/maximizar e fechar, dos limites da janela, esses podem ser premidos por engano. 2.4 Multi-tarefas É na taskbar do Windows XP que encontramos todas as tarefas (janelas) que estão abertas no momento. Estas vão surgindo na barra de forma sequencial (da esquerda para a direita), ou seja, a última a surgir é aquela que foi aberta em último lugar. Na barra, as tarefas são identificadas pelo nome. Contudo existe um grande senão, quanto mais tarefas estiverem abertas, mais espaço estará ocupado na barra, e esta não estica. O que queremos dizer com isto é que cada rectângulo representativo de cada tarefa, irá ficando mais pequeno à medida que o número de tarefas for aumentando. Por esta razão torna-se cada vez mais difícil identificar cada uma delas. Para isto, o Windows XP lançou uma solução que passa por agrupar tarefas semelhantes em blocos (ou 135

136 grupos). Para trocar rapidamente entre aplicações, sem necessitar de procurar a respectiva janela na barra de tarefas, existe um atalho de teclado ALT + TAB, que mostra uma pequena janela no centro do ecrã que lista todas as aplicações em execução, através dos ícones respectivos. É uma boa solução, mas com um enorme obstáculo logo de início: como é que um utilizador inexperiente vai adivinhar que tem que pressionar ALT + TAB para aceder a essa opção? Fig. 12. Agrupamento de tarefas em blocos, em Windows XP. Também no Mac OS-X, quando uma janela é minimizada, esta vai para a docking bar, mas também neste caso isso pode trazer problemas relacionados com a representação das tarefas na barra. Se tivermos muitos ícones com representações iguais, torna-se extremamente difícil decifrar qual é qual. No caso do Mac OS-X, a falta de texto identificativo pode ser considerado uma desvantagem. Fig. 13. Exposé, em Apple OS-X. Para solucionar este problema a Apple introduziu o Exposé 6, uma ferramenta que diminui todas as janelas activas, permitindo a sua visualização simultânea e ordenada, no ambiente de trabalho. Para activar o Exposé, basta pressionar a tecla F9 e todos os

137 programas serão organizados; pressionando F10 é dado ênfase às janelas do mesmo tipo e pressionando F11 todas as janelas desaparecerão dando acesso directo ao ambiente de trabalho. Esta solução é óptima para trocar rapidamente entre aplicações, pois permite a pré-visualização das janelas, contudo acontece o mesmo problema que em Windows XP (ALT + TAB): um utilizador inexperiente jamais imagina que precisa de carregar F9 para activar o Exposé! Por vezes ser bonito não é o mesmo que ser usável, aliás, Norm Cox, desenhador da interface Xerox Star, um dia disse "Sexy graphics are like lipstick on a bulldog" [8] ou seja, podemos por baton num bulldog, mas isso não significa que se deseja beijá-lo. Muitas vezes o mais simples é o melhor. 2.5 Caixas de diálogo O Mac OS X possui duas formas diferentes de dialogar com o utilizador. Uma é a mais usual, que é a aparição de uma nova janela com opções independente da aplicação correspondente (fig. 14), a outra é uma pequena janela (semelhante à anterior) que surge sempre ligada à aplicação a que se refere, mas que não impede de continuarmos a trabalhar com essa aplicação (ao contrário do Windows XP). Fig. 14. Caixa de diálogo, em Mac OS-X. Como podemos visualizar na imagem, e como é regra da Apple, os botões Save e Don t Save estão muito afastados um do outro, para que assim o risco de engano seja menor. É de salientar ainda o facto de serem usados verbos como identificadores dos botões, assim torna-se mais fácil entender o que cada um deles está destinado a executar. 137

138 Fig. 15. Caixa de diálogo, em Windows XP. Em Windows XP os diálogos são sempre feitos através do aparecimento de novas janelas. Ao contrário do Mac OS X, neste caso temos apenas botões que dizem Yes ou No. Ou seja, para perceber o que fazem esses botões temos de ler todo o texto acima e por vezes recorrer o botão More Info. Esta prática é considerada má usabilidade, uma vez que faz o utilizador perder tempo quando se poderia perfeitamente ultrapassar este problema dando nomes mais sugestivos e directos aos botões. O facto dos botões Yes e No estarem ao lado um do outro pode também conduzir a inúmeros erros indesejáveis e sem retorno. 2.6 Feedback e respostas do SO Quando o computador está a executar uma tarefa em background, ambos os SO reagem da mesma forma. Ao lado do cursor do rato surge uma ampulheta (no caso do Windows) ou uma imagem de uma roda em movimento que nos dá a ideia de loading (no caso do Mac OS-X). Estas imagens formam o próprio cursor do rato, quando for necessário impedir o utilizador de prosseguir com as suas tarefas, momentaneamente. No entanto, e ainda em termos de feedback, podemos dar um exemplo que parece ser relevante e que faz de notar uma certa superioridade do Windows XP. Sempre que introduzimos um novo dispositivo de armazenamento (p.ex. uma drive USB) num PC com o Windows XP instalado, este abre uma janela nova com as várias opções que podem ser tomadas em relação a esse dispositivo. No Mac OS-X, simplesmente surge no desktop um novo ícone para abrir o dispositivo. A simplicidade deste acto no Mac OS-X, pode levar a que o utilizador não se aperceba da alteração. Existem dois pontos fáceis de comparar em termos de resposta destes dois SO. Uma delas é o acompanhamento do cursor à barra de scroll. No Mac este sincronismo não acontece, enquanto que em Windows XP sim. O mesmo se passa com o redimensionamento de janelas. 138

139 4 Conclusão Vimos que, para um mesmo problema, a Apple e a Microsoft encontraram soluções completamente diferentes, algumas mais eficazes que outras. Veja-se o caso do volume de som: para um problema tão simples, a Apple encontrou uma solução bastante mais eficaz do ponto de vista visual, bastando variar o ícone de acordo com o volume de som. Por outro lado, para um problema igualmente simples, a Apple optou por usar um código de cores, sendo imperceptível à primeira vista o significado dos botões, enquanto a Microsoft colocou os próprios ícones nos botões, com o significado destes. A nível de organização de janelas, o Mac OS-X da Apple, acaba por se destacar, já que não existe barra de tarefas como no Windows, onde se acumulam todas as janelas activas. Em Mac OS-X, a necessidade de minimizar janelas não é tão grande, já que existe o Exposé, que permite visualizar todas as janelas activas no momento em tamanho mais reduzido, e seleccionar aquela com que queremos operar. Para além disso, as barras de menu de todas as aplicações estão localizadas sempre no mesmo sítio: no topo do ecrã. Mas embora isto seja bom do ponto de vista de organização das janelas, o conteúdo da barra de menu pode não corresponder à janela vista em primeiro plano, pois esta pode não ser a janela activa no momento, o que confunde o utilizador. As soluções encontradas para lidar com múltiplas janelas (ALT + TAB em Windows XP; Exposé em Mac OS-X), são óptimas para o utilizador experiente. No entanto, à primeira vista, ambos os SO não fornecem meios que informem os utilizadores dessas funcionalidades. Falando de feedback para o utilizador, o Windows XP parece levar ligeira vantagem. A todo o momento aparecem balões, caixas de diálogo, etc, informando o utilizador acerca do que se passa em background no SO ou das opções disponíveis após efectuar determinadas acções (vimos o exemplo da inserção de uma drive USB). Tal como já o referimos antes, com este artigo não pretendemos dizer qual o melhor sistema operativo, em absoluto. Contudo é possível apontar diferenças e detectar falhas, apresentar alguns factos que ajudem o utilizador a tirar as suas próprias conclusões. Não existe um SO absolutamente perfeito para todos. Cada utilizador deve escolher aquele que melhor cumpre as suas necessidades, que obviamente variam de pessoa para pessoa. A forma como um SO implementa uma determinada ferramenta/opção ou como permite realizar determinadas tarefas, influenciam a facilidade de utilização junto do utilizador final. Por isso, apesar de serem investidos milhões em usabilidade, as empresas ainda cometem falhas, sendo que essas podiam ser resolvidas de forma relativamente simples. Apontar essas falhas, foi o objectivo principal de escrevermos este artigo. Mas uma coisa se pode afirmar com certeza: recentemente a Microsoft lançou no mercado o seu mais recente sistema operativo: Windows Vista. Este foi apresentado como sendo um SO revolucionário, com montes de opções novas ou melhoradas em relação ao Windows XP. Mas muita gente já veio a público dizer que grande parte dessas soluções, são apenas uma cópia de funções já implementadas pelo Mac OS-X 7. Porque será?

140 Referências 1. Wikipedia, Definição de Usabilidade: 2. Apontamentos de Interacção Pessoa-Computador, FEUP, 2006; 3. Entrevista com Jakob Nielsen: 4. Microsoft, Testes de Usabilidade: ; 5. Business Week, Usability is next to Profitability : ; 6. Apple, Exposé: ; 7. Windows Vista Beta: a lot like Mac OS-X : php ; 8. Microsoft, 8 Golden Rules : ; Todas as referências foram consultadas até ao dia 21 de Dezembro de

141 Quadros Interactivos Multimédia na Educação Álvaro Vasconcelos a, Ariel Pestana a e Bruno Sousa a Faculdade de Engenharia da Universidade do Porto a {alvaro.vasconcelos, ariel.pestana, Dezembro de 2006 Resumo O intuito deste artigo é efectuar um estudo acerca do impacto dos quadros interactivos como ferramenta de apoio à educação e respectiva tecnologia associada. Pretende-se investigar sobre a opinião de todos os intervenientes no processo, através da realização de entrevistas em escolas portuguesas onde o sistema esteja implementado, estudar os diferentes métodos de ensino da actualidade, consultar relatos de casos reais já documentados e analisar documentação técnica e de estudo na área. Explorando também um pouco o universo de fornecedores da tecnologia. Avalia a integração evidente que estes terão num futuro próximo na Educação, já que alteram signicativamente as tradicionais metodologias aplicadas no ensino e potenciam um conhecimento mais alargado e criativo. Focando especial atenção à situação em Portugal. Descreve a estrutura física (quadro interactivo e respectivos periféricos), expondo as principais características e benefícios que estimulam o ensino e também os diversos problemas que podem resultar da utilização, procurando obter um conjunto de respostas para questões que possam resultar da integração da tecnologia, tais como, facilidade de uso, comparação com outros métodos de ensino, casos de utilização exclusivos da tecnologia, ou mesmo resultados práticos na sala de aula (atenção, vontade de aprender). Relata o porquê do sucesso da tecnologia, com enfoque na receptividade da comunidade, nomeadamente os alunos como os principais visados no sistema de ensino, docentes pelo facto de terem de empreender um esforço extra inicial para aprender a manipular toda a tecnologia inerente aos quadros interactivos e nalmente administradores, pois são quem tem de tomar a decisão estratégica de investir na tecnologia

142 1 Introdução A sociedade está num processo de mudança em que as novas tecnologias são as principais responsáveis, alguns autores identicam um novo paradigma de sociedade que se baseia num bem precioso, a informação, atribuindo-lhe várias designações, entre elas a sociedade da informação. (Naisbitt, 1988; Drucker, 1993; Santos, 2004: ) Esta sociedade poderá ser responsável por grandes diferenças sociais, tendo em conta o seu grau de exigência. Como é uma sociedade que vive do poder da informação, tendo como base as novas tecnologias ela poderá ser muito discriminatória, quer entre países, quer internamente, entre empresas, entre pessoas. Até algum tempo atrás, o saber ler e interpretar textos, bem como efectuar cálculos matemáticos simples, era obrigatório para se viver em harmonia e bemestar na sociedade, este novo cenário mudou e as necessidades de qualicações prossionais e académicas aumentaram consideravelmente. (Lyon, 1998). As pessoas têm de ser capazes de se adaptarem a diversos meios, desenvolvendo uma atitude exível, com conhecimentos generalistas, capazes de se formarem ao longo da vida de acordo com as suas necessidades e que dominem as Tecnologias da Informação e Comunicação (TIC). A sociedade exige da escola pessoas com uma formação ampla, especializada, com um espírito empreendedor e criativo, com o domínio de uma ou várias línguas estrangeiras, com grandes capacidades de resolução de problemas (Martins, 1999; Matos, 2004). A Sociedade da Informação utiliza como recurso as TIC. As novas tecnologias instaladas na sociedade e no trabalho levaram a profundas mudanças no campo social e individual ao inuenciarem drasticamente a vida humana, o tempo e o espaço. (Gouveia & Gaio et al, 2004: 257). A sociedade tenderá a ser cada vez mais competitiva, criando mais riqueza e consequentemente qualidade de vida, tornando-se numa sociedade mais livre evitando a exclusão do cidadão convidando-o a participar. Mas para que isto seja possível e não se criem maiores dissimetrias sociais, as políticas educativas desempenham um papel primordial. Considerando que o novo paradigma social tem como principal recurso a informação, a correcta utilização, pesquisa, armazenamento e tratamento da informação, o cidadão tem de aprender a lidar com esta realidade. Não parece ser suciente manusear correctamente as tecnologias, é necessário desenvolver as competências necessárias para compreender este novo processo. O indivíduo tem de ser capaz de acompanhar adequadamente as inovações para ter uma adequada integração na sociedade e no mercado de trabalho cada vez mais competitivo e exigente (Drucker, 1993; Forester, 1989; Lyon, 1998; Martins, 1999; Naisbitt, 1988). 142

143 2 Métodos de Ensino Inserido no meio da Educação, os quadros interactivos são uma das ferramenta (recursos materiais) para a organização e condução metódica do processo de ensino e aprendizagem. Destacam-se outras ferramentas tradicionais como por exemplo, quadro, projecção de slides, video-projectores, etc. Os utilizadores devem dominar com segurança estes meios de ensino, conhecendoos e aprendendo a utilizá-los de forma didáctica, criativa e adequada. (Prof.Arievaldo Lima) A ferramenta mais antiga e igualmente a mais utilizada é o quadro, que pode ser de ardósia ou com uma superfície em acrílico. O quadro de ardósia apareceu em 1801, é geralmente de cor preta ou verde escuro. Recorre-se ao giz (proveniente de gesso) para efectuar as marcações desejadas. A principal desvantagem deste tipo de quadro é a grande quantidade de poeira produzida, produzindo incomodo a pessoas com alergias ou problemas respiratórios. (Wikipédia - Charkboard, 2006) Por outro lado, na manipulação do quadro branco (superfície em acrílico) recorrese a marcadores extinguindo assim os problemas associados aos quadros de ardósia. São ligeiramente mais caros, mas têm vindo a ser cada vez mais adoptados nas escolas, levando assim a extinção dos quadros de ardósia. (Wikipédia - Whiteboard, 2006) Com o desenvolvimento tecnológico apareceram novas ferramentas para melhorar a qualidade das apresentações, nomeadamente os projectores de slides e os vídeo-projectores. Estas ferramentas permitem ao orador apresentar o seu conhecimento de forma mais organizada a partir de uma sequência de slides previamente preparada. Com estas ferramentas introduz-se a uma componente multimédia nas apresentações, passando a ser possível apresentar imagens e vídeos (no caso dos vídeo-projectores) nas apresentações. Por estes motivos e com o desenvolvimento tecnológico, revela-se cada vez mais a necessidade do aparecimento de novas ferramentas de apoio para o processo de ensino. As ferramentas tradicionais atrás identicadas são de certa forma limitadas, pois têm um baixo nível de estruturação do conhecimento (auxiliam apenas o método expositivo do processo de aprendizagem). Não permitem a exportação de novos elementos introduzidos durante a apresentação (Ex: anotações, comentários). Possuem uma baixa interoperabilidade com outras ferramentas multimédia. E com o passar do tempo tornam-se ferramentas cada vez menos atractivas tanto para o apresentador como para os elementos da plateia. 143

144 3 Tecnologia Um Quadro Interactivo Multimédia (QIM) trata-se de uma superfície que permite reconhecer a escrita electronicamente pelo processamento de um computador. É projectada uma imagem, geralmente com recurso a um projector, a partir da qual, é permitida interacção com o Software do QIM utilizando uma caneta electrónica para o efeito. Os QIM são habitualmente utilizados em sessões de apresentações e a nível do ensino. O QIM é conectado ao computador por USB, ou porta de série ou Bluetooth. É instalado o Software acompanhado com o QIM que é executado automaticamente sempre que o computador é iniciado. É ligado um projector digital ao computador, que é focalizado para a área do quadro. Esta focalização do projector para o quadro é geralmente acompanhado por um processo chamado por alinhamento. Este alinhamento consiste simplesmente em tocar nos quatro cantos do quadro com a caneta digital. Existem três tipos de projecção: projecção de frente, projecção de trás e painéis LCD. Cada um destes tipos de projecção tem vantagens e desvantagens. Na projecção de frente os quadros interactivos têm um vídeo-projector a frente do quadro. Este sistema é o menos custoso dos três tipos de projecção e é o sistema implementado nas salas de aulas em Portugal que aderiram aos QIM. As suas principais desvantagens aplicam-se ao apresentador. A sombra criada pelo projector devido a sua presença e a luz do projector direccionada ao apresentador quando este se dirige para a sua plateia. Os sistemas com projecção de trás removem as desvantagens encontradas nos quadros anteriores, mas por outro lado são muito mais caros, geralmente de grandes dimensões e não podem ser axados a parede. No terceiro tipo de projecção é utilizado um painel LCD com a tecnologia DViT (Digital Vision Touch), apresentando assim uma qualidade de imagem superior. É o tipo de sistema mais caro dos três apresentados. De seguida segue-se uma breve descrição das principais funcionalidades do software que acompanha os quadros interactivos, nomeadamente o quadros SMART Boards: Tocar para controlar o computador: tocar na tela do quadro interactivo para interagir com o sistema operativo do computador. Apresentação de todo o tipo de informação, desde apresentações, grácos, elementos multimédia. Escrever por cima de aplicações: adicionar notas, informações sobre qualquer uma aplicação do computador. Converter escrita manual para texto Funções de acesso usando o Floating Tools: ferramenta que permite o acesso fácil e rápido as funcionalidades genéricas do software. 144

145 Seminários LEIC 2006 Spotlight: uso de formas genéricas e apelativas por forma a enfatizar determinadas áreas do quadro. Gravações vídeo e áudio Escrita sobre vídeo Teclado on-screen para facilitar a interacção com o computador Integração com outras aplicações: Microsoft Word, Excel, PowerPoint e Paint AutoCAD CorelDRAW Microsoft NetMeeting e Bridgit Outras funcionalidades aplicadas as notas: partilha, inserir imagens, gravar em diversos formatos (PDF, HTML, JPEG...), mover e redimensionar objectos, adicionar attachments, formatar texto, ocultar partes da informação. Para além das funcionalidades atrás descritas, existem outras mais complexas incluídas no software dos quadros interactivos, que permitem dar-lhes outros tipos de utilização que vão para além das apresentações. O software permite desenhar diagramas para estruturar ideias, conceitos ou domínios. Compostos por guras simples que representam conceitos, e conectores que representam as relações entre os conceitos. É igualmente possível explorar os diagramas atribuindo vários níveis de exploração, permitindo a navegação entre diferentes mapas, ou páginas web e associar diferentes tipos de vistas aos diagramas para facilitar as apresentações e a estruturação do conhecimento. Outra facilidade da aplicação é a interoperabilidade entre sistemas operativos, pois diagramas criados por exemplo em Windows, são totalmente compatíveis quando utilizados noutros sistemas operativos. (SMART Ideas concept-mapping software, features, 2006) Com estas funcionalidades é a possibilidade criar mapas conceptuais ("representações grácas de conhecimento a través de conceitos e relações entre conceitos", Novak e Gowin 1984) para modelar contextos, que podem por exemplo, serem utilizados em sessões de brainstorming (técnica criativa para geração de ideias para resolver um dado problema) tanto a nível universitário como a nível empresarial. 145

146 4 Comparação de métodos de ensino A introdução dos quadros interactivos multimédia nas escolas está a revolucionar o método de ensino, contrapondo com as metodologias tradicionais (Mary Ann Bell, 2001). De modo a ter uma visão mais clara das vantagens adjacentes ao uso dos quadros interactivos na educação, efectuámos uma comparação com os restantes quadros tradicionais, como o retro-projector e vídeo-projector. Esta comparação foi fruto de um inquérito realizado na Escola Secundária Castêlo da Maia, onde esta nova tecnologia se encontra implementada há cerca de três anos. De um modo geral, o nosso estudo comprova que a principal vantagem dos QIM às restantes metodologias é o elevado grau de interacção que permite numa aula. Além de ser possível apresentar conteúdos online, vídeo e som, motiva os alunos e potencía o aumento dos níveis de atenção. Por outro lado, vericamos que graças às diversas funcionalidades disponíveis para as mais diversas áreas, principalmente no domínio da Matemática e das Línguas, permite leccionar de um modo inovador. Comparando agora unicamente com os quadros tradicionais, verica-se que a vantagem mais relevante é a possibilidade de reutilização dos conteúdos leccionados. Isto signica que os docentes têm a possibilidade de armazenar todos os apontamentos efectuados no quadro, durante as aulas, em formato digital. Isto signica que os alunos já não necessitarão de copiar os apontamentos para o caderno e poderão focar a atenção unicamente nos conteúdos leccionados. Em casos em que o docente já tenha uma apresentação preparada, todas as interacções e alterações aos conteúdos da apresentação, efectuadas durante as aulas, também poderão ser armazenadas e re-utilizadas futuramente. Outra vantagem indirectamente relacionada com a utilização dos QIM em vez dos quadros tradicionais, nomeadamente os de ardósia, é a não utilização de giz, que para além de não ser muito visível para alunos que se encontrem mais longe do quadro, muitas pessoas são alérgicas ao mesmo. A nível de desvantagens, podemos comprovar que praticamente todas elas advêm da falta de domínio da tecnologia e da resistência à mudança por parte de alguns docentes. Apesar de ser dado algum apoio técnico pelos fornecedores dos QIM, os professores consideram que dispendem demasiado tempo na preparação das aulas interactivas, já que para dar máximo rendimento às funcionalidades destes quadros é necessário algum domínio da tecnologia, principalmente em áreas mais delicadas como é a matemática. Pesando agora todos estes factores, consideramos que será apenas uma questão de tempo para que todas as aulas sejam leccionadas com os QIM, isto porque ainda nos encontramos numa fase de adaptação a estes quadros e como é óbvio é necessário que, principalmente os docentes, tenham vontade de maximizar o uso das potencialidades quadros, já que, por outro lado, os alunos "agradecem" e até incentivam a utilização dos mesmos. 146

147 5 Uso dos QIM pelos professores A análise a um inquérito realizado na Escola Secundária do Castêlo da Maia, comprova que de um modo geral os professores reconhecem as enormes vantagens em aderir a esta nova metodologia de ensino. Apesar de existir uma certa resistência à mudança, nomeadamente por parte de professores com uma idade mais elevada, a taxa de utilização destes quadros na escola tem uma tendência claramente crescente de ano para ano. Figura 1: Utilização dos QIM na Escola Secundária do Castêlo da Maia Outro factor que também pode ser considerado como um entrave à utilização dos QIM por parte dos professores, é a necessidade de "migrar" todos os conteúdos já produzidos, alguns utilizados à anos, para versão digital e principalmente para versão interactiva. Isto porque a maioria dos professores utilizam o quadro interactivo apenas como vídeo-projector, não potenciando as suas funcionalidades. No estudo que efectuamos, os professores revelavam um elevado nível de insegurança perante os quadros, já que numa sala de aulas perante aproximadamente trinta crianças, um simples erro do professor é por si só motivo para desestabilizar o bom funcionamento da aula, logo, os professores só utilizam verdadeiramente os quadros e todas as suas funcionalidades em casos em que tenham as "aulas interactivas" completamente preparadas. Deste modo, como ainda não dominam completamente a tecnologia e a preparação das "aulas interactivas" consome bastante tempo, apenas cerca de 10% das aulas do ano lectivo é que são verdadeiramente interactivas. O Conselho Nacional de Educação, através do relatório de 2002, visou detectar necessidades no sistema educativo, demonstra muita preocupação com as TIC, para responderem às necessidades da SI uma das advertências elaborada é a seguinte: "sejam tomadas as medidas políticas operacionais necessárias para 147

148 as potencialidades das TIC permitam adaptar e colocar cada vez mais a estratégia de aprendizagem ao serviço das necessidades e expectativas dos indivíduos de todas as faixas etárias" ; (Conselho Nacional de Educação, 2002:82) 6 Formação a universitários na área da educação Ao longo da nossa investigação sobre a utilização de quadros interactivos por parte do corpo docente, revelou-se um baixo nível de adaptação devido a falta de formação para explorarem totalmente esta nova ferramenta, e assim conseguirem adaptá-la à sua área do ensino. Explorando esta ferramenta é possível utilizar determinadas funcionalidades especícas para o contexto leccionado pelos docentes. A formação que os actuais docentes, utilizadores dos quadros interactivos, obtiveram é frequentemente demasiado genérica, visando apenas as potencialidades gerais do sistema, ou seja, não são focalizadas as funcionalidades que podem tornar o uso dos quadros interactivos realmente uma vantagem competitiva. Seria assim aconselhável os docentes e até mesmo os estudantes universitários que prossigam com uma carreira na área do ensino, terem formações especializadas sobre a utilização dos quadros interactivos para o domínio em que leccionam. Melhorando assim a qualidade das suas apresentações e desta forma melhorando a produtividade no processo de ensino. Como refere o diploma da Resolução do Conselho de Ministros número 110/2003, "O domínio dessas tecnologias... só será cabalmente atingido quando os próprios professores estiverem conscientes das potencialidades das tecnologias da informação e comunicação e as soubessem, também eles, potenciar na sua acção pedagógica." (In RCM, n. o 110/2003, de 12 de Agosto, n. o 185 SÉRIE I-B) 7 Alunos Segundo a Comissão Internacional sobre Educação para o século XXI, no seu relatório para a UNESCO, as TIC são ferramentas valiosas para a educação "o recurso ao computador e aos sistemas multimédia permite traçar percursos individualizados em que cada aluno pode progredir de acordo com o seu ritmo". O recurso às novas tecnologias constitui um meio de lutar contra o insucesso escolar. Observa-se, muitas vezes, que os "alunos com diculdades no sistema tradicional cam mais motivados quando têm oportunidade de utilizar essas tecnologias e podem, deste modo revelar melhor os seus talentos" (Godinho et al, 2004; UNESCO, 1998) Os alunos são o principal objectivo do QIM, pois é a eles que se destinam as mensagens que são projectas e é para eles que as potencialidades fazem sentido 148

149 de serem facilitadas. Para os alunos, o QIM é em primeiro toda uma novidade, os alunos que nunca viram tamanha tecnologia e metodologia de ensino cam surpreendidos com as capacidades que são proporcionadas, resultando numa imediata curiosidade, mas o QIM vai mais além no que diz respeito aos alunos, pois não só cativa numa primeira fase a atenção dos alunos como esse efeito se prolonga no tempo, em resultado da sua utilização. A perspectiva quase innita de possíveis interacções que são fornecidas pelo QIM, faz com que a vontade de aprender seja maior, podemos armar que de facto o QIM na sala de aula proporciona ao aluno toda uma panóplia de sensações, estimulando o aluno e sobretudo a capacidade de aprendizagem. Adicionalmente a todas estas vantagens que podem ser descuradas do uso dos QIM, a tecnologia que hoje existe tem um conjunto de periféricos que permite aumentar a interacção, nesse sentido o benefício não é apenas para a ligação professor-aluno mas também o inverso, podendo o aluno interagir directamente com o QIM. Para tal, pode se levantar e ir ao quadro principal, ou se os tais periféricos existirem, tais como o tablet QIM ou mesmo um sistema de votação, o aluno pode no seu lugar estar a responder a qualquer problema levantado pelo professor, havendo aqui uma vantagem enorme para o professor que potenciando a utilização do QIM está ao mesmo tempo a facilitar o processo de avaliação, resultando sobretudo numa aproximação do professor face a todos os aluno da sala de aula. Os alunos aderem e gostam deste tipo de tecnologia. Tocar no QIM é particularmente importante para os alunos mais novos, embora este ponto não seja reconhecido pelos fabricantes, nomeadamente os seus analistas (Kennewell, 2003). 8 Organização escolar A organização escolar, perante um projecto educativo, tem um papel central no meio de todo o processo, como agente responsável pela decisão de aquisição do QIM e gestão das vantagens e desvantagens que daí advêm (Leite, 2000). Cabe-lhe a difícil tarefa de ponderar esta aquisição em termos de custo económicos, tempo e receptividade por parte dos docentes. A receptividade é muitas vezes um dos factores mais difíceis de contornar, ultrapassada a barreira económica. Está dependente da individualidade de cada docente, da sua capacidade de abertura a novos métodos de trabalho, da facilidade em lidar com tecnologia informática, da faixa etária, da motivação em disponibilizarem algum do seu tempo para frequentarem formação e de trabalharem num projecto cujo retorno do mesmo não é imediato, factor que pode conduzir a algum desanimo e desmotivação. A propensão será para no futuro a insegurança tender a decrescer e uma maior e imediata adesão se vericar, a tendência é a de existirem cada vez mais escolas a adquirirem o QIM. Um pouco por todo o mundo bem como em Portugal existem várias escolas que já aderiram, outras estão a começar ou a planear a sua adesão. Segundo a administração da Escola Secundária do Castêlo da Maia o investi- 149

150 mento não é traduzível em termos quantitativos, tratam-se de resultados que apenas a longo prazo são possíveis de apurar. No entanto com a aquisição do QIM pretende a curto prazo servir como agente motivador dos alunos, para a longo prazo se reectir na melhoria das notas. Em segundo plano referem o acompanhamento das novas tecnologias. 9 Conclusões Com o aparecimento da Sociedade da Informação surge a necessidade de melhorar a qualidade de ensino. É urgente responder às necessidades de formação dos cidadãos para que consigam integrar-se facilmente no mercado de trabalho que neste tipo de sociedade se revela muito competitivo e exigente. "A educação é, desde longa data, reconhecida como um importante factor para o desenvolvimento económico e social (...)". (Conselho Nacional de Educação, 2002:22) Cabe à escola promover a aprendizagem para combater a info-exclusão ou o analfabetismo funcional da Informação, que signica, em traços gerais, a não aquisição das competências básicas a nível das TIC. A escola tem de saber lidar com a diferença, seja ela qual for, contribuindo para a adequada integração dos jovens na vida activa. 150

151 10 Agradecimentos À presidente do Conselho Executivo e do Conselho Administrativo da Escola Secundária do Castêlo da Maia, Doutora Paula Romão, que nos recebeu na escola fornecendo um enorme conjunto de informações acerca do tema. Ariel: À minha cunhada, que me ajudou a compreender o universo de uma escola e das TIC no seu contexto. Ao meu irmão pela sugestão do tema. Referências [1] Bell, Mary Ann, (1998). Survey of use of interacteractive electronic whiteboard in instruction [2] Bell, Mary Ann, (2001). Update to Survey of use of interacteractive electronic whiteboard in instruction [3] Leite, Carminda (2000). PROJECTO EDUCATIVO DE ESCOLA, PRO- JECTO CURRICULAR DE ESCOLA, PROJECTO CURRICULAR DE TURMA. Direcção-Geral de Inovação e de Desenvolvimento Curricular [4] DRUCKER, P. (1993). Post-Capitalist Society. Nova Iorque: Harper Collins Publishers. [5] Godinho, F. ET AL (2004). tecnologias de Informação sem Barreiras no Local de Trabalho. Vila Real: Universidade de Trás-os-Montes e Alto Douro. [6] Kennewell, Steve e Morgan (2003), Alex Student Teachers Experiences and Attitudes Towards Using Interactive Whiteboards in the Teaching and Learning of Young Children [7] Luís Borges e Gaio, Soa (orgs.) et al (2004). Sociedade da Informação - Balanço e Implicações. Porto: Edições Universidade Fernando Pessoa. [8] LYON, David (1992). A Sociedade da Informação - Questões e Ilusões. Oeiras: Editora Celta. [9] Martins, Maria Martins (1999). Formação e Emprego numa Sociedade em Mutação. Aveiro: Universidade de Aveiro. [10] MATOS, José C. (2004). "A importância da aprendizagem ao longo da vida face aos desaos da sociedade da informação e da economia do conhecimento" pág In GOUVEIA, [11] NAISBITT, J. (1988). Macro tendências. Lisboa: Editorial Presença. 151

152 [12] SANTOS, Nelson Lima, (2004) "Sociedade da Informação: Mudanças e desaos psicossociais no contexto sócio-laboral" In GOUVEIA, luís Borges e Gaio, Soa (orgs.) et al (2004). Sociedade da Informação - Balanço e Implicações. Porto: Universidade Fernando Pessoa, Página: [13] SMART Board Sotfware, [Em Linha] Disponível em [Consultado em Dezembro de 2006] [14] SMART Ideas concept-mapping software, features, [Em Linha] Disponível em US/Products/SMART+Ideas/Features.htm [Consultado em Dezembro de 2006] [15] UNESCO (1998). Professores e ensino - num mundo em mudança. Relatório mundial de educação Rio Tinto: Edições ASA. [16] Wikipédia - Quadro Interactivo, [Em Linha] Disponível em [Consultado em Dezembro de 2006] [17] Wikipédia - Interactive Whiteboard, [Em Linha] Disponível em [Consultado em Dezembro de 2006] [18] Wikipédia - Charkboard, [Em Linha] [Consultado em Dezembro de 2006] 152

153 Open Business: Uma Nova Estratégia Luís Barbosa 1, Mahomed Mangá 1, Paulo Monteiro 1 1 Alunos do curso de Engenharia Informática e Computação da Faculdade de Engenharia da Universidade do Porto Rua Dr. Roberto Frias, s/n Porto, Portugal { ei01103, ei99005, Abstract. Open Business é a nova dinâmica emergente na filosofia de negócio. Tem como alicerces a sinergia na abertura, transparência e a participação na concepção e desenvolvimento de ideias de negócio. Com este trabalho pretendemos dar uma visão compreensiva do conceito e o seu impacto nas diferentes facetas da sociedade. Esta visão é-nos oferecida através de um seguimento lógico que primeiro ilustra as condições que propiciaram o seu nascimento, com a Internet e o Open Source como os seus principais motivadores, a sua evolução natural nas organizações expressa pelo conceito de Open Source Business, e finalmente dando especial ênfase ao seu estado actual com modelos e exemplos de aplicações praticas do Open Business. Keywords: Open Business, Open Source, Open Source Business, Open Source Business Models, Open Business Models, Ideias, Inovação, Propriedade Intelectual, Abertura, Transparência, Participação. 1 Introdução Este artigo tem como objectivo apresentar uma visão sobre o Open Business e todos os aspectos que envolvem esta nova prática. Donde veio, como cresceu, em que assenta. Estas são algumas das perguntas que iremos responder neste artigo. O facto de ser uma prática recente e aos poucos mais empresas decidirem optar por uma estratégia de negócio apoiada em Open Business, levou-nos a querer aprofundar este assunto e também dar a conhecer algo que consideramos poder vir a ser uma nova forma das empresas interagirem internamente e/ou externamente com os seus colaboradores mais directos. Acreditamos que o futuro das relações empresariais e o próprio crescimento de muitas empresas, pode ser potenciado por uma adopção, mesmo que não por completo, de estratégias e processos de negócios que assentem nesta prática. Desta forma, conseguiremos uma abertura que servirá como plataforma para uma ainda maior evolução, não só tecnológica, mas também de todas as áreas de negócio, à sociedade e a tudo a que a rodeia. No decorrer deste artigo, tentaremos pôr em evidência tudo o que o Open Business poderá trazer à economia e à sociedade, assim como a forma de se poder aliar tal 153

154 estratégia sem suscitar nas pessoas o medo da mudança ou o receio que de um momento para o outro, os seus negócios e respectivos processos estejam disponíveis para qualquer pessoa e mais especificamente, abertos à concorrência mantendo o aspecto da competitividade no mercado, que sempre beneficiou o cliente final. 2 Open Source O conceito de Open Source teve como seu berço o meio académico. Em ambientes experimentais, dinâmicos e criativos como os académicos [1], sempre existiu a necessidade de partilhar o código entre diferentes entidades. Esta abertura proporcionava aos criadores múltiplas vantagens, desde a revisão do seu código tornando-o menos vulnerável ao erro, à possibilidade de evoluir através eventuais alterações introduzidas pelo acto da partilha. Em suma, o acto de partilha e transparência faculta maior fiabilidade e um maior factor de evolução e mutação no objecto. Esta ideia aliada a correntes paralelas e semelhantes como a criação de software não proprietário culminaria no movimento que caracterizamos hoje como Open Source, um movimento global que defende uma maior abertura e transparência no software [1]. 2.1 A Internet O que mais fez a Internet? Esmoreceu limitações e distâncias. A Internet é o campo ideal para se ser alguém. É o local onde estamos mais perto de sermos nós próprios e sermos algo diferente. O ser requer sempre acção e participação, e para sermos reconhecidos precisamos de partilhar com qualidade. A abertura da Internet e a proximidade que esta confere entre pessoas ao nível global faz dela o meio social de eleição. Quando antes estávamos limitados aos conteúdos predefinidos dos canais de televisão ou às músicas emitidas pelas estações de rádio, agora podemos colocar o nosso conteúdo para toda gente ver, ler e ouvir [2]. Um blog, um vídeo no youtube, uma entrada na wikipedia são manifestações disso. Todos estes actos requerem pessoas, para serem criados, partilhados, participados e avaliados. 2.2 Uma Nova Realidade Nós crescemos para fazer algo e somos pagos para fazer algo. A nossa educação escolar e posterior formação académica tem como finalidade preparar-nos para fazer algo, e se possível algo que se goste. A questão essencial é Seremos nós pagos para fazer aquilo que gostamos? Ou para aprender a gostar de fazer aquilo que não gostamos muito? Normalmente um ser humano faz algo que gosta de graça, simplesmente pelo próprio gozo, gratificação ou satisfação que o acto lhe confere. E o que fazemos melhor do que aquilo que gostamos? A questão é essa, as pessoas fazem melhor aquilo que gostam. Como diz o ditado, Quem corre por gosto não cansa. 154

155 As empresas já não se encaram como máquinas, em que cada pessoa é uma peça diminuta e infalível no grande esquema das coisas. As pessoas não são infalíveis muito menos mecânicas. As organizações são feitas por pessoas e na sua interacção por redes sociais. Uma estratégia de recursos humanos suportada por um conjunto ferramentas e acções[3], como por exemplo um Departamento de Recursos Humanos ou um fim de semana radical com os funcionários da empresa, é um esforço interno de ordenar e alinhar as redes no intuito de as tornar mais eficientes e eficazes no grande esquema do ambiente organizacional. No actual meio económico, em que a oferta ultrapassa largamente a procura, as empresas precisam de identificar e definir o que fazem bem e como o fazem bem, como um dos seus elementos bases para a sua sustentabilidade e vantagem competitiva sustentada, ou numa só palavra especializar-se [4]. Na pirâmide das necessidades (Maslow A.H., 1943, 1954, 1970), no topo encontrase auto realização, e o que é a auto realização se não fazer aquilo que se gosta? Como tal, tem-se observado actualmente uma inversão nesta pirâmide, em que cada vez mais, a auto realização é o elemento base para que uma empresa seja mais produtiva e criativa, uma vez que as pessoas procuram fazer bem aquilo que gostam. A questão não é pôr as pessoas a fazerem melhor mas sim a fazerem o que gostam possibilitando ainda pessoas internar ou externas da organização a participar na execução de um projecto ou na resolução de um problema. 3 Open Source Business 3.1 A ameaça e a oportunidade A Internet demonstrou ser a plataforma perfeita para a conjunção destes movimentos Open Source e a vontade das pessoas quererem ser um elemento activo e participativo fazendo aquilo que gostam. A Internet encontra-se cada vez mais disseminada e acessível servindo como um catalisador à participação, criatividade e a evolução à escala global. Muitas das empresas vêem o Open Source e as filosofias inerentes como uma ameaça, um atentado à ideia de patente e propriedade que tanto defendem como fonte de retorno [5]. Em muitas situações, vêem-se forçadas a competir com produtos e serviços concebidos por equipas de pessoas que os fazem bem e de graça e que evoluem a um ritmo mais acelerado, tendo como exemplo o Microsoft Internet Explorer e o Mozilla FireFox. Existe obviamente uma miríade de serviços e ou produtos concebidos através desta filosofia débeis ou com falta de qualidade, simplesmente neste meio depara-se também um processo de selecção natural em que os melhores são reconhecidos e adoptados. Esta selecção natural baseia-se no fundamento que, se não for uma boa ideia com qualidade suficiente, esta não obterá massa crítica para a participação e consequentemente para a dinamização e evolução[6]. Quando se fala em Open Source, não significa que seja totalmente grátis. Encarando como uma oportunidade, muitas as empresas cresceram com este conceito disponibilizando a abertura e transparência nos seus produtos, mas extraindo sempre 155

156 formas de retorno derivadas. A MySQL disponibiliza o seu software sobre uma licença de software livre, tendo no entanto a possibilidade de proporcionar e cobrar a manutenção e contractos de apoio ao seu software a entidades interessadas nesses serviços, como sua fonte de rendimentos. Se bem que a MySQL calcula que os seus cerca de 8000 clientes pagam cerca de 1-10% do que pagariam por software proprietário, e por cada um deles existem 1000 utilizadores da versão livre, consideram esta situação vantajosa uma vez que dissemina a utilização do seu software, uma forma de aumentar o numero de potenciais clientes e por outro lado cria um conjunto de utilizadores que contribuem directamente para a empresa e constituem uma fonte de talentos dos quais a empresa pode recrutar empregados. Outras como por exemplo a Toyota redesenharam as suas equipas internas de maneira a simular a descentralização, autonomia e flexibilidade que existe na comunidade Linux. 3.2 Open Source na Ciência Num mundo perfeito, cientistas partilham problemas e trabalham em equipa para resolver problemas em prol da sociedade, no entanto, por razões de competitividade de publicação de artigos e de controlo de propriedade intelectual, isto nem sempre acontece. Karim Lakhni, professor assistente na Harvard Business School, possui uma vasta experiência em pesquisas sobre comunidades de software Open Source, acredita que a comunidade de investigação cientifica a nível mundial tem muito a ganhar com a adopção da transparência, abertura e atitude colaborativa. [8] Apresentar problemas a pessoas externas a uma equipa de investigação provou que potencia o número de soluções encontradas para a resolução desses mesmos problemas. As inovações têm uma probabilidade maior de surgir na intersecção de disciplinas. Muitas empresas e/ou organizações (tais como que recentemente decidiram aderir a este tipo de iniciativa, repararam que enquanto o problema residia numa área de especialização a solução estava numa outra área de especialização qualquer. Como exemplo é dado o caso de uma grande firma norteamericana de biotecnologia que ficou responsável por desenvolver um método de detectar de forma simples e rápida uma sequência de ADN. Após diversos meses de esforço, concluíram que não havia uma solução viável para o problema em questão. A empresa sentindo necessidade em descobrir uma resolução decidiu partilhar o seu problema com a comunidade científica. Em 4 semanas mais de 574 cientistas investigaram o problema e 42 deles submeteram soluções. A solução vencedora foi de um cientista finlandês, que além de ter usado uma metodologia existente, proporcionou um avanço nessa área e possibilitou à empresa tirar proveito dessa mesma solução. Um caso semelhante ocorreu numa empresa de farmacêutica que após terem encontrado uma anomalia supuseram que a resolução do problema fosse de base toxicológica. No entanto especialistas nessa área falharam na descoberta da solução, até que a empresa decidiu transportar esse problema para uma comunidade, onde pessoas podiam ter acesso a todos os dados do problema. Em pouco tempo um cristalógrafo indicou a solução à medida! [8] 156

157 Um novo e óptimo exemplo da forma como a ciência está a abraçar os conceitos de Open Business é a iniciativa levada por comunidades de cientistas que procuram desenvolver medicação para países pobres. 3.3 Motivação para a Partilha de Conhecimento Com os 2 exemplos dados anteriormente temos alguns pontos a reter: Partilha de informação (ideias, problemas, soluções, conhecimento) e motivação de pessoas para a resolução de problemas. Porque é que as pessoas partilham informação ou conhecimento e ao mesmo tempo se sentem motivadas para a resolução de problemas se à partida não terão qualquer garantia de remuneração monetária? Será o simples facto de partilha, da ajuda, de realização pessoal? Karim Lakhni defende que é por realização pessoal, por reconhecimento e pelo valor que a sua ideia terá na comunidade. Refere igualmente que as pessoas sentem-se melhor quando integradas numa comunidade e que se sintam intelectualmente desafiadas. Mesmo sabendo que a solução submetida tem uma possibilidade baixa de ser a considerada as pessoas tentam sempre o seu melhor, no entanto conclui-se que o prazer e o desafio da aprendizagem são dois factores comuns em todos os bons solucionadores. 3.4 A crítica Um modelo nunca é perfeito e está sujeito sempre a falhas. Se a abertura e a transparência são as grandes vantagens desta ideia, também pode ser a sua grande imperfeição. A abertura e transparência baseiam-se num bem algo escasso, a confiança e a boa fé dos potenciais intervenientes, estando assim qualquer produto ou serviço sujeito a actos adversos e contraproducentes como o vandalismo ou outro tipo de interferências nefastas. Em termos directos esta, relação é mais um compromisso entre controlo e qualidade e a criatividade, flexibilidade e desenvolvimento, que tem de ser delineado de forma muito equilibrada, estabelecendo parâmetros, regras ou directivas para a sua aplicação. 157

158 Fig. 1. Esquema exemplificativo de elementos envolvidos coma empresa. 4 Open Business Existem actualmente várias tentativas de adaptar os modelos de negócio a esta filosofia emergente. Mais que simplesmente adaptar temos que inovar [7]. Dadas as exigências competitivas do mercado, a consequente especialização das empresas e o crescente recurso ao outsourcing, as organizações têm que identificar ou captar os recursos humanos que têm prazer em trabalhar no sector da empresa. Analogamente consideramos que esta estratégia só vingará caso a organização exiba um modelo Open Business, isto é de abertura e transparência interna e externa, que de certa maneira diluiu os limites que tradicionalmente definem uma empresa. Ao ter exibir um modelo de abertura e transparência interna e externa existe a possibilidade de criar uma escala de colaboradores altamente vantajosa e derivar grandes proveitos dessa atitude. No nível interno, encontramos os seus colaboradores directos, os empregados que compõem a organização per se, aos quais esta estratégia possibilita um ambiente de familiaridade, liberdade, partilha, confiança e motivação. Estas condições proporcionam uma participação extremamente activa e criativa, visto que todos fazem aquilo que gostam e trabalham em conjunto para um objectivo comum. Estas redes ou equipas tendem a ser extremamente coesas, não existindo a necessidade de proximidade física, podendo os colaboradores trabalhar em casa, e muitas vezes de um espaço comum à escala de uma organização normal. Esta descentralização e flexibilidade aliada ao custo practicamente nulo existente nas comunicações e ao alívio nos custos de infra-estrutura numa organização podem ser um contributo significativo para várias empresas. Ao nível externo pode-se estabelecer vários graus de colaboradores consoante o seu grau de participação. Este grau de colaboração pode ser uma relação directa com a abertura e transparência que a empresa oferece e a participação que o colaborador demonstra. Isto é uma situação altamente vantajosa para ambos os lados. A empresa 158

159 tem a oportunidade de criar uma pool de recursos humanos talentosos que mais se identificam com sua filosofia, e assim captar os colaboradores directos que sejam mais benéficos, e também extrair contribuições externas que sejam úteis para o desenvolvimento do seu produto ou serviço com um custo relativamente reduzido. Por outro lado, os colaboradores externos sentem-se mais envolvidos, com um papel mais activo no desenvolvimento de um produto ou serviço que identificam como objecto de auto realização ou que serve como meio de retorno ao nível pessoal, através de satisfação ou prazer. Existem outros benefícios retirados desta relação externa mais transparente. Esta atitude permite a criação de um grupo sólido de clientes e utilizadores mais activos na sua contribuição para definição do produto ou serviço que se ajuste melhor às suas necessidades, isto reverte numa maior proximidade entre a organização e os seus clientes. Esta abordagem transparente permite também uma disseminação mais facilitada do serviço ou produto, uma vez que ele na sua forma elementar não representa um custo para eventuais interessados. 4.1 Arquitectura de Open Business Empresas que adoptem a possibilidade de implementar uma arquitectura de Open Business apenas terão a eficiência que procuram se tiverem um sistema de informação bem robusto e distribuído. A forma como produtos estão a ser distribuídos faz parte da mudança que ocorreram na gestão de empresas. A expressão arquitectura de Open Business abarca todos os processos de negócio que um sector partilha. Esses processos poderão ser gestão de portfólios, actividades de back-office bem como distribuição. Isso significa que toda uma cadeia que abarca diversos fornecedores e clientes, possuirá as características de transparência, abertura, onde qualquer stakeholder e colaborador pode consultar qualquer processo, partilhar conhecimento, etc. Para tal ocorrer bem os sistemas de informação das empresas e/ou organizações terão de ser o mesmo, ou compatível. [10] Como vantagens de ter uma Arquitectura Open Business num sector de negócio, está claramente a redução de burocracias, partilha mais eficiente de informação e conhecimento, facilitação de outsourcing. Como desvantagens estão custos de ter um sistema de informação compatível e transversal a todas as áreas da cadeia. [10] 5 Conclusão A aplicação desta estratégia terá em conjunção com a especialização e o outsourcing um efeito paradoxal mas complementar na definição de uma empresa. Por um lado, a empresa encontra-se cada vez definida, estando mais orientada e especializada no seu objectivo, através de um conjunto de colaboradores altamente vocacionados e motivados que se identificam perfeitamente com esta, relegando as áreas não críticas para empresas exteriores, contribuindo estes factores no seu conjunto para um desempenho organizacional aperfeiçoado. No entanto a abertura e a 159

160 transparência permitem uma maior influência exterior, em que elementos fora do círculo normal da empresa, desempenham um papel de contribuição, participação e de importância acrescido, atenuando as fronteiras que definem a empresa. Sendo que uma questão pode ser colocada: Uma empresa não devia ser uma comunidade de pessoas que adora o que faz e consegue tirar proveito disso? Uma das grandes preocupações que subsiste nas empresas é a da propriedade intelectual, bem como o receio de expor problemas e soluções, receando a perca de competitividade. Na opinião de alguns investigadores devem-se encontrar licenças inovadoras ou regimes legais justos de forma a lidar com os receios normais das empresas e/ou organizações e permitir ainda assim a partilha de conhecimento sem afectar a propriedade intelectual das empresas. Infelizmente actualmente os modelos usados são o da negação completa da partilha de conhecimento e/ou ideias ou a da completa abertura da mesma partilha de conhecimento. [8] Mais estudos serão feitos de forma a estudar quais as vantagens de partilhar o conhecimento e ideias internamente em empresas (que sejam grandes o suficiente) em contraste com a partilha de ideias com colaboradores externos. Vimos que comunidades de Open Source evoluíram como organizações não lucrativas que estão a competir nos mesmos mercados, pelos mesmos clientes contra empresas com ideias de negócio convencional. A questão a colocar a essas empresas não lucrativas é: Como é que captando as atenções e entusiasmo de colaboradores voluntários à escala mundial se torna numa empresa lucrativa? Não se pode garantir que Open Business será o modelo de gestão estratégica do futuro, mas sem dúvida que irá ser um dos mais importantes ventos de mudança a afectar modelos sociais, económicos e organizacionais nos próximos tempos. References 1. Open Source Visitado durante 24 de Outubro a 22 de Dezembro de Clarke, Roger. Open Source Software and Open Content as Models for ebusiness, no capitulo Open Source, em 7 de Maio de 2004, Visitado durante 24 de Outubro a 22 de Dezembro de What Business Can Learn From Open Business, Agosto de 2005, Visitado durante 24 de Outubro a 22 de Dezembro de Human Resource Management Visitado durante 24 de Outubro a 22 de Dezembro de Modelos de Negócio Conceito, slide 8 em Planeamento Estratégico de Sistemas de Informação Aula5, no âmbito da cadeira Planeamento Estratégico de Sistemas de Informação, FEUP. Visitado durante 24 de Outubro a 22 de Dezembro de Open, but not as usual 16 de Março de Visitado durante 24 de Outubro a 22 de Dezembro de

161 6. What Business Can Learn From Open Business, Agosto de 2005, Visitado durante 24 de Outubro a 22 de Dezembro de Modelos de Negócio Nova Economia, slide 4 em Planeamento Estratégico de Sistemas de Informação Aula5, no âmbito da cadeira Planeamento Estratégico de Sistemas de Informação, FEUP. Visitado durante 24 de Outubro a 22 de Dezembro de Lagace, Martha. Open Source Science: A New Model for Innovation, 20 de Novembro de 2006, Visitado durante 28 de Novembro a 22 de Dezembro de Stark, Mallory. The Organizational Model for Open Source, 7 de Julho de 2003, Visitado durante 28 de Novembro a 22 de Dezembro de Mayr, John. Making Open Business Architecture Work, Outubro de 2004, _work.html Visitado durante 24 de Outubro a 22 de Dezembro de

162 162

163 VoIP Voice-over-Internet Protocol António Bandeira, Bruno R. Santos Faculdade de Engenharia da Universidade do Porto Rua Dr. Roberto Frias, s/n Porto PORTUGAL Abstract. A tecnologia VoIP (Voice-over-Internet Protocol) está a inovar a área das telecomunicações, pondo, nomeadamente, em causa o conceito de telefonia convencional. Esta tecnologia baseia-se num procedimento bastante simples: digitalizar o som, fazê-lo percorrer uma rede de dados até ao destinatário e, aí, convertê-lo, novamente, para som. No tempo em que a grande maioria das instituições dependem das redes de dados para suporte aos seus processos de negócio e possuem um acesso à Internet que, inclusivamente, já utilizam para outras formas de comunicação, a introdução de um solução VoIP pode trazer vantagens a vários níveis. A forma de implementação de soluções de telefonia IP pode ser muito variada e pode recorrer a diferentes protocolos de comunicação de dados. Também, para que se possa operar nas melhores condições, é necessário que sejam reunidas algumas condições, quer ao nível das características das redes de comunicações de dados, quer ao nível dos equipamentos de telefonia envolvidos, que podem ser diversos e dependentes da tecnologia e topologia implementada, e novos serviços que surgem para dar suporte a novos processos de negócio suportados pela tecnologia de telefonia IP. No nosso estudo, iremos procurar analisar as principais vantagens e os problemas mais significativos inerentes à adopção de um sistema de telefonia IP, numa organização. Procuraremos, também, fazer uma breve apresentação dos principais protocolos utilizados, soluções disponíveis de telefonia IP e novos serviços. 1 Introdução Quando o telefone convencional foi pensado pela primeira vez, pretendia-se, simplesmente, que fosse capaz de transportar sinais sonoros e o seu uso para o transporte de dados, nessa altura, estava a décadas de acontecer. No entanto, é irónico pensar que a tecnologia que antecedeu ao telefone era, por si, uma tecnologia de transporte de dados: o telégrafo. Este equipamento transmitia, no século XIX, mensagens codificadas de um terminal para outro, no que hoje poderíamos equiparar a uma rede peer-to-peer. Uma geração depois, na década de 1960, surgem os primeiros equipamentos de codificação de som e, muito rapidamente, os computadores tornam-se capazes de transmitir informação representada como som, usando a rede telefónica. Esses equipamentos eram modems e, mais tarde, máquinas de fax os descendentes do telégrafo. Desde que o telefone foi inventado, as comunicações telefónicas não se alteraram substancialmente. Claro que novas tecnologias surgiram, como os circuitos digitais, o 163

164 António Bandeira, Bruno R. Santos DTMF (ou touch tone) e o caller ID, mas as funcionalidades básicas mantêm-se as mesmas. Ao longo dos anos, os prestadores de serviços fizeram uma série de alterações que não foram perceptíveis para o consumidor, para melhorar os serviços que ofereciam, incluindo call return, call forwarding, entre outros. Sobre esses novos serviços, os utilizadores pouco sabiam como funcionavam, mas, por outro lado, sabiam duas coisas: o mesmo telefone de sempre ainda funcionava e o prestador de serviço cobrava por cada um dos novos e pequenos serviços que ia introduzindo. Na década de 1990, um grupo de investigadores surge com o intento de transportar som e vídeo em redes IP, especialmente intranets e também na Internet. Esta tecnologia que foi, então, criada é hoje chamada de VoIP e é, de uma forma simplificada, o processo de partir som e imagem em pequenos conjuntos de informação passíveis de serem transmitidos numa rede IP e de os reconstruir no destino, de modo a possibilitar a comunicação. Hoje em dia, redes de voz e dados convergem e o VoIP começa a substituir a criação de Bell. A telefonia IP tem, hoje, o mesmo objectivo que tinha o primeiro telégrafo: facilitar a interacção entre pessoas, à distância. 2 Enquadramento Voice-over-Internet Protocol (VoIP) é a família de tecnologias que permite a utilização de redes IP como a Internet para aplicações de voz, tais como telefonia e teleconferência. Esta família de tecnologias engloba soluções em quase todas as camadas de uma rede IP, que vão desde as aplicações de software (como o Skype) até aos detalhes de mais baixo nível em que se ajustam todos os parâmetros de transmissão de dados, de modo a que estas aplicações possam operar sem problemas. Recentemente, muitos desenvolvimentos têm vindo a público e, inclusivamente, já se fala na criação de uma nova indústria em torno da tecnologia VoIP nas suas mais diversas formas: aplicações de desktop, serviços de telefonia e sistemas telefónicos empresariais. VoIP é a tecnologia de suporte que permite desde as banais aplicações de software de chat, que já incluem funcionalidades de comunicação por voz, até às mais sofisticadas redes de telecomunicações em grandes instituições. Para um financeiro, VoIP é um simples investimento em que se prevêem muitos retornos positivos, a longo prazo. Para um engenheiro de telecomunicações, é uma forma de simplificar a rede de comunicações de dados de uma instituição e melhorar a experiência de telefonia para os utilizadores dessa rede. Para o utilizador privado, é simplesmente uma forma muito interessante de poupar algum dinheiro na dolorosa conta de telefone no final do mês. Mas o conceito não é exactamente novo. Tecnologia VoIP já tem sido considerada e utilizada como uma forma de suprimir os problemas de longa distância desde 1990, onde, nessa altura, produtos como o Internet Phone começavam a emergir. Mas a promessa do Voice over IP rapidamente se perdeu devido a produtos defeituosos e ao lento arranque da revolução da banda larga. Sem comunicações com as características 164

165 VoIP Voice-over-Internet Protocol com as que temos actualmente, VoIP é, realmente, impraticável. Assim, as primeiras experiências de implementação e utilização destes novos serviços e produtos, como o CUSeeMe e NetMeeting, foram claramente frustradas devido a má qualidade de som e a primeira geração de produtos VoIP simplesmente falhou no mercado. Mas, de repente, toda a gente começa novamente a falar em VoIP. Porquê? Talvez não haja nenhuma grande razão para além do repentino sucesso de uma aplicação de chat que integra funcionalidades VoIP: o Skype. O Skype é um programa de instante messaging que, por acaso, tem ao seu dispor uma rede peer-to-peer global que pode simplesmente ser usada para ligar dois utilizadores, usando um simples computador pessoal. Tudo o que é necessário é uma rede com alguma largura de banda, um microfone e um par de altifalantes ou auscultadores. Obviamente, o Skype soube distinguir-se dos seus concorrentes, como o AIM ou o Windows Messenger, que também suportam funcionalidades de voz, conseguindo que funcione sem problemas em qualquer ambiente de rede, ultrapassando todos os problemas normalmente levantados por firewalls e serviços NAT (Network Address Translation), largamente utilizados nas redes de hoje. Além disso, a utilização de um codec que permite transmissão a taxas variáveis torna-o menos vulnerável a problemas de qualidade de som do que os seus antecessores. O seu slogan oficial é, aliás, Internet Telephony that Just Works. E o mundo notou. 150 Milhões de downloads depois, o Skype oferece a possibilidade dos seus utilizadores realizarem chamadas para telefones convencionais desde um computador, um sistema de voic , reencaminhamento de chamadas e, alem disto, disponibiliza uma API que permite a integração dos serviços oferecidos pelo Skype noutras aplicações. Alem do sucesso do Skype, outros fabricantes contribuíram para o grande sucesso que o VoIP tem hoje, promovendo o que habitualmente se chama de Telefonia IP a arte de criar sistemas de telefones empresariais recorrendo a equipamentos ethernet e servidores no lugar dos antiquados PBX e de tecnologia que, hoje, podemos considerar obsoleta. A Cisco Systems e a Avaya são dois dos mais antigos participantes nos avanços dos sistemas telefónicos VoIP e os seus esforços começam a obter resultados. Cada vez mais empresas e outras instituições começam a integrar servidores e telefones IP e a criar suporte nas suas redes de comunicações de dados para estes sistemas. Os seus objectivos são, claramente, o acréscimo de produtividade e reduções de custos a longo termo, por manterem uma única e convergente rede de telecomunicações em lugar de manter e sustentar sistemas de voz ultrapassados. Esta mudança pode ser equiparada à que aconteceu com a migração das mainframes para computadores pessoais na geração anterior. Em duas frentes os sistemas telefónicos empresariais e institucionais, e o utilizador doméstico o VoIP está a mudar o panorama global das comunicações. Em lugar de dois conceitos de redes globais um para ligações de voz, e outro para IP uma única e convergente rede está a surgir, juntando voz e dados no mesmo protocolo de comunicação: IP. Incondicionalmente, o mundo empresarial e o doméstico estão a migrar os seus serviços do antigo plano para o novo, a nova geração, e novos negócios e fornecedores de serviços surgem para ajudar na mudança. 165

166 António Bandeira, Bruno R. Santos Obviamente que já todos fomos confrontados com anúncios de prestadores de serviços VoIP que prometem serviços de telefone a um preço muito baixo, utilizando as ligações de banda larga que, hoje em dia, já algumas pessoas possuem em suas casas. E a sua arma secreta é, claramente, o VoIP, recorrendo à Internet para transportar o som da voz até ao novo telefone de nossas casa. Como as telecomunicações VoIP não são reguladas pelos mesmos moldes que os serviços de telefonia tradicionais, os fornecedores destes novos serviços conseguem oferecer preços para os mesmos serviços a um preço muito mais baixo. Será claro que existem contrapartidas e outras condicionantes na introdução destas tecnologias. Uma delas é que o VoIP, ao contrário da telefonia convencional que a possui intrinsecamente, não consegue garantir qualidade de serviço. Como o VoIP usa pacotes para transmitir informação, tal como qualquer outra aplicação na Internet, não consegue garantir qualidade nessa transmissão, e portanto, na experiência de uma chamada telefónica em VoIP. Mas também isto está em mudança. Esforços estão a ser feitos no sentido de adaptar e introduzir técnicas de QoS (Quality of Service) nos serviços VoIP e, assim, poder atingir um nível de satisfação tão grande ou maior do que aquele que se consegue com os serviços convencionais. Hoje em dia, se se pretender construir uma rede com implementação dessas técnicas de garantia de qualidade, já é possível, e esses equipamentos começam, até, já a ser bastante banais. Cisco, Nortel, Avaya e outros fabricantes de equipamentos de redes já suportam as técnicas e standards de QoS, o que significa que as redes mais antigas estão a um upgrade de distância de uma efectiva convergência nas redes de voz e dados. Mas levará alguns anos até que a Internet possua estas características e possa garantir qualidade de serviço. Na verdade, isso até poderá nunca acontecer para a totalidade da extensão e cobertura da Internet. No entanto, isto não impede que ligações VoIP, através da Internet, sejam tentadas, e se o Skype consegue funcionar tão bem, por que não funcionará com os telefones de qualquer empresa? Na verdade, também será absolutamente necessário utilizar toda a extensão da Internet 3 Implementação e Arquitectura 3.1. Princípios básicos Muitas pessoas já usaram um computador e um microfone para gravar e registar voz, ou outros sons. O processo envolve criar amostras do som que é recebido pelo computador a uma velocidade muito alta (pelo menos 8000 vezes por segundo, ou mais) e armazenar essas amostras em memória ou num ficheiro no computador. Como facilmente se percebe, cada uma destas amostras é uma parte infinitesimal do som gravado pelo computador, que apenas terá de os reproduzir à mesma velocidade com que foram gerados, para que se possa reconstituir o som gravado. 166

167 VoIP Voice-over-Internet Protocol VoIP baseia-se na mesma ideia, com a única diferença que as amostras de som que foram geradas não são armazenadas no computador. Em vez disso, elas são enviadas através da rede IP para outro computador e reconstruídas lá. Obviamente que é necessário muito mais do que isto para ter uma verdadeira solução VoIP. Assim, quando estão a ser geradas as amostras de som, o computador poderá comprimir essa informação de modo a que ocupem menos espaço e amostrar apenas dentro de uma determinada gama de frequências. Existem inúmeras formas de codificar e comprimir áudio e o nome que se dá ao algoritmo é de compressor/descompressor, ou simplesmente codec. Existem, também, vários codecs para uma enorme variedade de aplicações, como para as pistas de som de um filme ou de um disco. Para VoIP, o codec está optimizado para codificar e comprimir voz, o que permite reduzir significativamente o consumo de espaço para armazenar a mesma informação sem compressão, ou usando outro codec cuja finalidade seja, por exemplo, o de se conseguir absoluta fidelidade em relação à fonte original. Os codecs de voz são, então, especializados em codificar e comprimir os sons de palavras dentro das frequências de som habituais para a voz humana. É por esta razão que o resultado da codificação de música ou outros sons não resulta tão bem quando recorremos a um codec de voz. Assim que o som foi registado pelo computador e comprimido em amostras muito pequenas, estas serão agrupadas em e colocadas em pacotes de dados para transmissão na rede IP. Este processo é referido como packetization. Geralmente, um único pacote IP contém cerca de 20 a 30ms de áudio. Uma forma de apresentar os pacotes IP é vê-los como postais enviados por correio. Um único postal tem, como limite, apenas uma determinada quantidade de informação e, para se enviar uma mensagem muito longa, é necessário enviar vários postais. Será facilmente perceptível que os correios, perante tantos postais, poderão perder um ou outro postal. Um outro problema prende-se com a reconstituição dos postais no destino, e para isso temos de introduzir no postal algum método que permita reconstituir a ordem dos postais e que poderá ser a simples colocação de um número de sequência no canto inferior direito do postal, como numeração de página. Tal como os postais enviados pelos correios, alguns pacotes IP podem ser perdidos e o codec tem de ser capaz de compensar esses pacotes que foram perdidos introduzindo som que é aceitável ao ouvido humano. Este processo é chamado de packet-loss concealment (PLC). Em alguns casos, o mesmo pacote é enviado mais do que uma vez para se ultrapassar o problema da perda de pacotes, criando-se assim redundância nos dados transmitidos à custa do sobre carregamento da rede, o que nem sempre é desejável. Um outro método para identificar perda de pacotes é o forwarderror correction (FEC), onde se inclui informação de pacotes já enviados nos pacotes seguintes, de modo a ser possível reconstruir a informação de um pacote perdido através da informação extra contida nos pacotes vizinhos. Tal como se sucede com os postais enviados pelo correio, os pacotes IP podem sofrer atrasos na entrega. Esta é uma situação problemática em sistemas VoIP, uma vez que a informação contida em pacotes que possam chegar atrasados pode já não ser útil, ou mesmo já ter sido reproduzida. Estes pacotes são então, simplesmente, descartados, como se nunca tivessem sido entregue no destino. Isto é, até certo ponto, 167

168 António Bandeira, Bruno R. Santos aceitável, uma vez que os mesmos algoritmos de PLC podem compensar essas perdas e produzir áudio com qualidade aceitável. Normalmente, os computadores medem o atraso, ou latência, na entrega de pacotes e esperam que esse atraso seja mantido relativamente constante. Variação na latência (jitter) é absolutamente frustrante em equipamentos IP. A existência de latência significa que o som que foi registado apenas será ouvido no destino algum tempo mais tarde. Em geral, boas redes de dados possuem latências nunca superiores a 100ms, que podem subir para o 500ms se no percurso forem utilizadas ligações de satélite. Por outro lado, jitter pode conduzir a situações de ligeiros cortes na recepção de voz ou pequenas pausas. Assim, dispositivos VoIP normalmente implementam jitter buffers para compensar e prevenir estes problemas. Isto significa, simplesmente, que antes dos pacotes serem processados para reprodução são coleccionados de modo a garantir que existam, sempre, pacotes disponíveis para processamento, aumentando e diminuindo de acordo com as variações de atrasos de entrega. Claramente, existe muito mais no VoIP para além de enviar e receber pacotes de áudio na Internet. Tem, por exemplo, de existir um protocolo acordado para a forma como os computadores ou outros equipamentos se encontram e para a forma como trocam informação. Tem também de haver um acordo quanto ao formato (payload format) para os conteúdos dos pacotes Implementação tecnológica e protocolos Existem vários protocolos que podem ser usados numa implementação VoIP de modo a proporcionar serviços de comunicação. De um modo geral, quase todos os dispositivos de comunicação usam o standard Real-Time Protocol (RTP) para a transmissão de pacotes de média, que podem conter som e até vídeo. RTP é definido pela norma do IETF no RFC O payload format para vários codecs é definido no RFC 3551 e noutros documentos publicados pelo ITU e noutros RFCs. A definição do protocolo RTP também inclui mecanismos (através do RTCP Real-Time Control Protocol) para ajudar nos problemas levantados por latência e jitter. Tendo em atenção as crescentes preocupações com segurança, o RTP evoluiu para Secure RTP, uma definição que fornece encriptação, autenticação e garantias de integridade dos pacotes que são transmitidos na rede (definido no RFC 3711). Antes de se poder iniciar a transmissão de pacotes entre dois dispositivos IP, vários outros protocolos podem ser usados para encontrar o dispositivo remoto e negociar a melhor forma de codificar e transmitir os sinais pretendidos. Os protocolos que se focalizam neste processo são chamados de call-signaling protocols, sendo os mais populares o H.323 e o SIP (Session Initiator Protocol). Ambos se baseiam em aprovisionamento estático e outros protocolos para encontrar outros utilizadores na rede, como o RAS, DNS, TRIP e o ENUM. Tanto o H.323, como o SIP, tiveram a sua origem em 1995 quando investigadores procuravam resolver a forma como dois computadores podiam iniciar comunicação para transmissão de streams de vídeo e som. O H.323 foi o primeiro a obter sucesso 168

169 VoIP Voice-over-Internet Protocol comercial ao conseguirem a rápida publicação do primeiro standard em 1996, pela ITU. O SIP, por outro lado, teve um progresso mais lento no IETF, em que o primeiro o primeiro standard reconhecido surgiu em Foi revisto ao longo do tempo e novamente publicado em 2002, como RFC 3261, que é o actual standard reconhecido para SIP. Estes atrasos, obviamente, significaram atrasos na adopção deste protocolo em soluções comerciais. Fundamentalmente, tanto o H.323 como o SIP permitem ao utilizador fazer a mesma coisa: estabelecer comunicação multimédia (áudio, vídeo ou outra comunicação de dados). No entanto, os dois protocolos diferem significativamente na sua arquitectura, onde o H.323 recorre a sistemas de comunicação já existentes e que poderão ser considerados pouco actuais e como sendo um protocolo cuja troca de informação é binária. Por outro lado, o SIP opta por não utilizar tantos elementos provenientes de sistemas mais antigos, tratando-se de um protocolo baseado em trocas de mensagens em texto (ASCII-based protocol). Ao longo dos anos, várias discussões foram levantadas em relação à utilização do melhor protocolo, mas poucas se focaram numa análise puramente funcional. O facto é que ambos cumprem com o pretendido, apesar do H.323 ser considerado superior num diverso número de aspectos: melhor interoperabilidade com a rede telefónica convencional PSTN (Public Switched Telephone Network), melhor suporte para transmissão de vídeo e excelente interoperabilidade com sistemas de vídeo mais antigos, como o H.320. O SIP, sendo um session initiation protocol, não foi desenhado para responder a muitos dos problemas que surgiam com sistema mais antigos, acabando por ter uma boa resposta no mercado pela indicação de maior facilidade de implementação de depuração de erros. Nos dias de hoje, o H.323 ainda comanda o rumo das implementações VoIP no mercado de prestação de serviços de voz, especialmente no transporte de chamadas de voz internacionais e de longa distância. H.323 é, também, largamente utilizado em sistemas vídeo-conferência e é o principal protocolo em sistemas de vídeo IP. O SIP tem-se tornado, recentemente, popular pela sua adopção em sistemas de instant messaging e na famosa implementação do PBX open-source Asterisk. Ambos os protocolos podem ser considerados como intelligent endpoint protocols, significando que toda a inteligência requerida para encontrar o ponto remoto de contacto e para estabelecer media streamings entre o equipamento local e o remoto são parte integrante do protocolo. Existe uma outra classe de protocolos que são complementares ao SIP e ao H.323, como o H.248 e o MGCP, que são referidos como device control protocols. Para entender o intuito do H.248 e do MGCP, é importante compreender o conceito de gateway. Assim, uma gateway é um dispositivo que fornece uma interface IP por um lado e, por outro, algum tipo de interface para um dispositivo telefónico convencional. A interface para o dispositivo telefónico pode ser tão complexo como a interface para um switch PSTN, ou tão simples que permita conectar um tradicional telefone. Dependendo da sua dimensão e finalidade, a gateway pode permitir que chamadas originadas na interface IP possam ser transferidas para PSTN (ou ao contrário) ou pode simplesmente fornecer o meio de se poder conectar um telefone à Internet. 169

170 António Bandeira, Bruno R. Santos Inicialmente, as gateways eram vistas como dispositivos monolíticos que tinham o controlo da chamada (H.323/SIP) e o hardware necessário para controlar a interface PSTN. Recentemente, a gateway tradicional foi partida em duas partes: uma que continha a lógica de controlo das chamadas e que foi chamada de media gateway controler (MGC) ou call agent (CA), e a outra parte que ficavam com a interface com a PSTN, que foi chamada de media gateway (MG). Com esta separação, uma nova interface surge (entre a MGC e a MG), conduzindo a necessidade de especificação do MGCP e H.248. Alguns fornecedores de serviços providenciam aos seus clientes dispositivos que implementam H.248 ou MGCP (ou outros protocolos comparáveis) e, na rede de dados, um outro dispositivo a funcionar como MGC fornece a lógica do H.323 ou SIP, necessária para proporcionar, devidamente, chamadas VoIP por todo o mundo. Para além do H.323/SIP e do H.248/MGCP, existem outros protocolos não standard introduzidos por vários fabricantes e fornecedores de serviços que têm obtido bastante sucesso no mercado. A Skype é um desses fornecedores que tem sido extremamente bem sucedida usando um protocolo proprietário. 4 Desafios, principais problemas e dificuldades práticas Um grande problema levantado na implementação de serviços VoIP advém do uso de firewalls e de NATs (Network Address Translation) nas redes domésticas e empresariais. No sentido de tentar resolver estes problemas, usam-se Private Session Border Controlers em conjunto com estes equipamentos. O Skype, por exemplo, consegue resolver este problema recorrendo a um protocolo proprietário que recorre a outros peers na rede para conseguir ultrapassar NATs simétricos e firewalls. Outros métodos involvem o uso de protocolos como o STUN (Simple Traversal of UDP Throught NATs) ou o ICE (Interactive Connectivity Establishment). Num outro sentido, o uso de IP torna complicada a localização geográfica de utilizadores de uma rede. Em particular, dependendo da configuração e topologia da rede, um utilizador pode estar fisicamente conectado na rede de uma empresa num determinado país ou localidade, mas cuja ligação à Internet só é realmente estabelecida num outro ponto que pode ser geograficamente distinto. Desta forma, as chamadas de emergência, por exemplo, não podem ser facilmente reencaminhadas para o centro de atendimento mais apropriado e chegam a ser impossíveis de estabelecer, em alguns sistemas e prestadores de serviços. Além do mais, no caso de uma emergência, caso não seja possível a quem está a realizar a chamada identificar o local, os serviços de emergência não poderão, através de qualquer outro meio, detectar a origem da chamada. No seguimento de procedimentos de alguns operadores móveis, existem alguns fornecedores de serviços VoIP que já requerem a indicação de uma morada onde o ponto de acesso VoIP irá ser usado. Assim, quando o número de emergência é invocado, a chamada é encaminhada para o centro de atendimento apropriado. Em outros casos, por exemplo, os fornecedores de serviços mantêm o seu próprio centro de atendimento de emergência em que manualmente reencaminham as chamadas para os locais apropriados. Nos EUA, por exemplo, o governo estabeleceu uma data limite para que os operadores VoIP 170

171 VoIP Voice-over-Internet Protocol implementem E911, no entanto, várias dos grandes fornecedores VoIP nos EUA têm apelado para o alargamento do prazo. Um outro aspecto que ainda não foi totalmente resolvido prende-se com a integração no sistema de numeração telefónico internacional. Enquanto que as redes telefónicas convencionais e redes móveis partilham um standard comum e global (E.164) que aloca e identifica qualquer linha telefónica específica, não existe nenhum standard semelhante que seja adoptado globalmente para as redes VoIP. Alguns prestadores de serviços, no entanto, alocam um número E.164 que pode ser usado tanto para chamadas VoIP, como para ligações PSTN. Apesar disto, é normal encontrarmos operadores que implementam esquemas diferentes e incompatíveis de numeração que usam códigos de acesso específicos de cada operador. Em países desenvolvidos, os telefones móveis atingiram já a penetração total no mercado e muita pessoas já desistiram das suas ligações convencionais, para usarem, exclusivamente, telefones celulares. Posto isto, não é totalmente claro que venha a haver uma grande procura de serviços VoIP entre estes consumidores enquanto não existir uma rede WiFi pública ou comunitária, com uma cobertura semelhante à das redes celulares, despertando, desta forma, a atenção para os dispositivos VoIP móveis, também chamados WiFi phones. Outra hipótese será que VoIP seja implementado sobre as já existentes redes 3G. Em contrapartida, espera-se que outras soluções como os dual mode handsets, que permitem operar tanto em redes celulares, como em redes WiFi, possam tornar o VoIP mais popular. A primeira grande empresa a lançar VoIP móvel foi a TruPhone e os primeiros telefones dual mode capazes de oferecer VoIP móvel foram os Nokia E60 e E61. Os equipamentos handheld são outro meio que pode ser usado para se permitir serviços VoIP. Outro problema que, ultimamente, tem sido bastante apresentado, não só em comunicações VoIP, mas em todo o tipo de comunicações, é o da segurança. A grande maioria de soluções VoIP, hoje disponíveis, ainda não suporta encriptação, o que resulta na possibilidade das comunicações poderem ser escutadas sem autorização. Isto, obviamente, levanta problemas de confidencialidade e, como noutro qualquer meio de comunicação inseguro, de integridade. Este problema tem sido frequentemente adiado com o argumento da utilização de codecs proprietários e patenteados que tornam a escuta quase impossível. Mas, verdadeira segurança requer encriptação e autenticação criptográfica que, apesar de tudo, não está totalmente acessível ao nível do consumidor. No entanto, alguns fabricantes já começaram recentemente a introduzir o standard SRTP nos seus equipamentos. No caso da utilização de Voice VPN, poderá facilmente ter-se segurança no canal da VPN, implementando encriptação IPSec ao stream que se transmite. 5 Novos Serviços e perspectivas de futuro Muita gente proclama que a tecnologia VoIP permite todo o tipo de novos serviços que nunca foram possíveis até então. Isto é, certamente, verdade, apesar do hipotético ser, largamente, maior do que é, realmente, possível de implementar. Apesar disto, 171

172 António Bandeira, Bruno R. Santos existem variadas novas capacidades que são exequíveis e que irão surgindo à medida que se desenvolvem novos sistemas VoIP. A vídeo-conferência é, provavelmente, o primeiro novo serviço que irá surgir para distinguir, definitivamente, o VoIP dos sistemas telefónicos convencionais e existem já operadores que prestam serviços em que as pessoas através de um videotelefone. VoIP também permite iniciar chamadas telefónicas desde um computador pessoal, informar da disponibilidade de interlocutores (já denominado de presence), controlar serviços telefónicos desde o computador, entre outros. A aceitação do mercado para estes novos serviços são questionáveis neste momento, mas o potencial existe, está disponível e, certamente, ganhou uma tremenda atenção por parte de empresas à procura de um nicho neste novo mercado. Dois dos potenciais de negócio em torno do VoIP, a vídeo-conferência e o instant messaging, irão, rapidamente, despertar as suas funcionalidades de partilha de aplicações e de whiteboard. A ITU já definiu um conjunto de protocolos (T.120) para este tipo de aplicação e já tem sido usada em ferramentas como o Microsoft NetMeeting que, apesar de tudo, não tiveram grande sucesso. Tendo uma melhor integração com os telefones e uma maior implementação do VoIP, as empresas irão, provavelmente, achar a possibilidade de partilhar aplicações e de whiteboard muito interessantes numa perspectiva de aumento de produtividade. VoIP proporcionou o lançamento de um grande número de teorias no mercado. Inicialmente, foi visto como uma forma de conseguir chamadas gratuitas na Internet e, entretanto, evoluiu para a perspectiva de ser a tecnologia que irá substituir as redes convencionais de telefone. Como aconteceu com o aparecimento de outra qualquer tecnologia, um grande número de empresas tem tentado entrar neste mercado, sendo que a grande maioria tem tido pouco sucesso. À semelhança de outras situações, existe um determinado tempo necessário para o crescimento do mercado e o crescimento do mercado do VoIP tem acontecido de uma forma mais lenta do que, provavelmente, tinha sido previsto. Apesar disto, VoIP é uma realidade, funciona e as empresas que conseguiram sobreviver começam, neste momento, a ter algum retorno do seu empenho. Existe já um enorme número de utilizadores finais e um grande número de empresas que já utilizam VoIP como o seu primeiro serviço telefónico. Um facto curioso e que a maioria desconhece é que, desde há algum tempo, que um grande número de chamadas internacionais de longa distância são efectuadas, em algum ponto do seu percurso, em VoIP, sendo esse número, nos dias de hoje, ainda muito maior. Os desenvolvimentos relativos ao VoIP estão longe de estarem esgotados. Muitos especialistas ainda trabalham, activamente, para melhorar a tecnologia e, com o passar do tempo, espera-se conseguir provar ser um bom substituto para as redes telefónicas convencionais, sendo que já o é, actualmente, em cenários empresariais e instituições em que se consegue garantir qualidade de serviço. Também o é para utilizadores domésticos que estão dispostos a preterir de uma melhor qualidade de som em vantagem de preços muito mais apelativos para as suas chamadas telefónicas. É sabido que, nem sempre, a tecnologia permite uma qualidade de serviço equiparada ao da PSTN e, portanto, utilizadores em redes que não tenham uma gestão de tráfego tão boa poderão ter uma experiência de som distorcida ou mesmo uma fraca qualidade de som. Como uma questão de índole prática, não será possível 172

173 VoIP Voice-over-Internet Protocol alguém ir até à casa de outra pessoa e ajudar a instalar uma solução VoIP, de modo a activar VoIP em todos os telefones nessa casa. Isto poderá parecer um assunto de pouca importância, mas algumas pessoas não poderão ou não quererão, sequer, proceder às alterações necessárias para a implementação deste tipo de soluções em casa. Finalmente, diferentes prestadores de serviços oferecem diferentes níveis de serviço que proporcionam diferentes níveis de fiabilidade. Não é, de todo, invulgar que seja possível realizar uma chamada para um determinado destino num dia e no dia seguinte não. Este tipo de situações não se devem a falhas na tecnologia VoIP mas ao facto de alguns prestadores de serviços VoIP não possuírem ainda os recursos necessários para satisfazer a todos os requisitos, muito menos com a qualidade de um operador telefónico convencional. Um dos efeitos secundários que o VoIP veio trazer foi forçar todos os prestadores de serviços de telefonia tradicional, em todo o mundo, a repensar os seus negócios e todos estão a chegar a uma mesma conclusão: VoIP irá substituir as redes telefónicas convencionais e isso é uma brutal ameaça ao seu modelo de negócios actual. Num esforço de retomar o controlo da explosão de novos serviços e novos prestadores de serviços, os operadores tradicionais estão a iniciar um novo esforço que já se apelidou de Next Generation Network (NGN). A definição de NGN parece bastante benigna tal como definida na recomendação da ITU Y.2001: «Next Generation Network (NGN): a packet-based network able to provide telecommunication services and able to make use of multiple broadband, QoSenabled transport technologies and in which service-related functions are independent from underlying transport-related technologies. It offers unrestricted access by users to different service providers. It supports generalized mobility which will allow consistent and ubiquitous provision of services to users.» Qualquer pessoa que leia esta definição e que entenda a tecnologia irá, provavelmente, resumi-la como uma Internet bem gerida. Isto soa a algo encorajador para aqueles que esperam perpetuar o crescimento do VoIP e de outros serviços multimédia. Mas, na restante especificação da NGN, o que também é claramente dito é que o IP Multimédia Subsystem (IMS) definido pelo 3GPP é o coração da NGN e que todos os restantes serviços IP (incluindo data collaboration, movies-on-demand, Internet rádio, etc.) são, simplesmente, colocados numa pequena parcela da NGN, aos quais é atribuída pouca ou nenhuma atenção. Desta forma, a NGN poderá ser vista, de uma forma simplificada, como um esforço vocacionado para comunicações de voz, sem grande desejo de crescimento para outros serviços que não os de voz. Mas a NGN tem, ainda, um longo caminho para percorrer e, sem dúvida, terá um grande impacto nos sistemas de comunicação utilizados nos dias de hoje. Certamente que, com a evolução da introdução de todos estes novos serviços, novas necessidades surgirão e novos rumos se traçarão. Talvez a definição do novo protocolo H.325 traga novas estratégias e novas visões para o futuro. 173

174 António Bandeira, Bruno R. Santos 6 Conclusões Voice over IP é uma família de tecnologias que trará implicações para todos aqueles que usam telefones, a Internet, máquinas de fax, , e a web em geral. VoIP teve origem e moderniza muitas das disciplinas de tecnologias de comunicações e promete revolucionar a mais familiar destas tecnologias: o telefone. O IP, a telefonia analógica, a telefonia digital, o processamento de sinal áudio digital, redes de alta disponibilidade e uma quantidade de outras assuntos estão ligados pelo crescimento das fronteiras deste vasto domínio que é o VoIP. VoIP encontrou o seu lugar nos sistemas de telefones das empresas, nos aplicativos de instante messaging e até mesmo nos serviços de telefone domésticos e já começa a ser vulgar ver-se nos portais de, por exemplo, entidades bancárias a possibilidade de comunicar em VoIP com um assistente de apoio a cliente, usando um simples computador. Nos tempos mais recentes, vimos o VoIP como uma forma de não gastar dinheiro em chamadas telefónicas mas, neste momento, a definição de VoIP é bastante mais vasta. Largas quantidades de equipamentos baseados em VoIP estão a ser produzidos e introduzidos nas nossas empresas, que começam a substituir as suas redes telefónicas internas por este novo conjunto de funcionalidades e características que, de certa forma, impulsionam a indústria de comunicações de dados na produção de novos equipamentos mais eficazes e capazes de responder às novas necessidades levantadas por estes serviços. Neste seguimento, o próximo passo passará por tornar a Internet ainda mais fiável, introduzindo-se as funcionalidades de garantia de serviço para possamos assistir à substituição da rede convencional de telefone que hoje conhecemos. Referências Wallingford, Theodore: Switching to VoIP. O Reilly (2005) Wallingford, Theodore: (Article) Eight Tips for Migrating to Enterprise VoIP. (2005) Wallingford, Theodore: (Article) What is VoIP. (2005) Kelly, David G., Jennings, Cullen, Dang, Luan: Practical VoIP Using VOCAL. O Reilly (2002) Smith, Jared, Meggelen, Jim Van, Madsen, Leif: Asterisk: The Future of Telephony. O Reilly (2005)

175 Artigo de Seminários Orkut Comunidades Sociais Artur Fonseca, Filipe Montenegro, Paulo Ferreira 1. Introdução Como cada vez mais estamos perante uma sociedade informatizada foi com naturalidade que surgiram redes sociais espalhadas pela Internet. Estas redes permitem a interacção com novas pessoas normalmente atraídas por gostos ou culturas semelhantes, troca de informação de um modo fácil e a discussão por várias pessoas dos mais diversos temas. No mundo das comunidades sociais actuais temos diversos movimentos a surgir entre os mais relevantes destacamos as redes sociais, fóruns de discussão, comunidades de arte, filmes, jogos, imagens entre outras. Apesar desta facilidade de interacção entre pessoas nem tudo é bom nestas redes visto que alguém mal intencionado ou com intenções criminosas pode aproveitar dados disponibilizados nestas redes para os usar de forma menos digna, neste capitulo as crianças são as mais desprotegidas dada a normal falta de experiência neste tipo de situações, outro tipo de problema é o excesso de importância da a estas comunidades podem criando-se por vezes a situação de certas pessoa viverem mais para as próprias comunidades que para a sua vida real. A maior motivação para a interacção nestas comunidades é a partilha de informação, onde alguém com mais conhecimento pode sem grande esforço partilha-lo com outros indivíduos de forma a expandir desta forma o conhecimento dos outros bem como o seu. Este tipo de partilha de informação tem vindo a crescer substancialmente sendo que a Wikipedia, uma enciclopédia on-line em que qualquer pessoa pode alterar e adicionar conhecimento, é neste momento o grande impulsionador deste tipo de comunidades, outras comunidades deste tipo são o Usenet, The WELL, AOL e o Slashdot. A maior parte destas comunidades crescem lentamente de inicio dado que normalmente a motivação é proporcional ao tamanho da comunidade, dado que à medida que a comunidade vai crescendo também a motivação para participar vai aumentando, criando-se depois um ciclo de crescimento, sendo que os utilizadores destas comunidades descrevem a sua participação como sendo viciante. Outro tipo de comunidade com grande expansão hoje em dia é a de interacção entre pessoas. Estas funcionam com o simples intuito de se conhecer novas pessoas, sendo estas comunidades as que melhor justificam o nome de comunidades sociais. Entre as mais populares hoje em dia temos: Nome Utilizadores Blogger 16,000,000 Classmates.com 40,000,000 Cyworld 15,000,000 Facebook 12,000,000 Hi5 50,000,000 MySpace 130,000,

176 orkut 33,729,146 Reunion.com 25,000,000 Windows Live Spaces 30,000,000 Nestas comunidades podemos tornar a nossa vida social mais activa, podemos trocar fotos e mensagens com pessoas conhecidas e facilmente conhecer novas pessoas. Para isso estas comunidades disponibilizam motores de pesquisa de indivíduos pelos mais diversos temas podendo também navegar pelo grupo de amigos dos seus amigos actuais. A grande maioria destas permitem também actualmente disponibilizar musica, vídeos e fotografias no profile de cada utilizador. As maiores comunidades são principalmente generalistas, ou seja, não tentam englobar um grupo específico de pessoas através de uma temática específica. 2. Orkut O Orkut é uma comunidade social que nasceu em 19 de Janeiro de 2004 com a finalidade de facilitar o relacionamento à distância das pessoas bem como a interacção com pessoas desconhecidas. Este projecto deve o seu nome a Orkut Buyukkokten, engenheiro da conhecida Google que nos seus tempos livres criou o motor desta comunidade. Dentro de comunidade do Orkut cada utilizador tem um perfil onde se descreve, este perfil é dividido em três partes, a parte social onde o utilizador descreve as suas características pessoais, gostos musicais entre outras, uma segunda parte onde é descrita a situação profissional da pessoa e por fim temos a parte pessoal onde o utilizador disponibiliza dados pessoais e ainda pode apresentar a descrição do tipo de pessoas que pretende conhecer dentro da comunidade. Em relação aos amigos cada membro pode ter até 1000 pessoas na sua lista podendo estes ser classificados como desconhecido, conhecido, amigo, bom amigo e melhor amigo, a partir do momento em que um utilizador é reconhecido como sendo amigo de outro estes podem ver a lista de amigos um do outro criando assim uma ligação entre vários utilizadores. A partir deste modelo de ligações já foi até criada uma teoria chamada de teoria dos seis graus de separação que consiste em dizer que em todo o mundo para duas quaisquer pessoas estejam ligadas entre si bastam apenas seis laços de amizade. A imagem seguinte ilustra esta teoria. 176

177 Dentro do mundo do Orkut podem também ser criadas novas mini comunidades tendo como base um tema de interesse (o número de comunidades está também limitado a 1000 por perfil), estas comunidades criadas dentro do Orkut servem para utilizadores com interesses comuns poderem ter um sítio para exprimir as suas ideias. Estas comunidades têm dois tipos de interacção ou através de fóruns onde é criado um tópico e os outros utilizadores podem lê-lo e responder ou deixar uma mensagem relativa ao tópico criado, outro modo de iteração é através de eventos que consistem em tópicos fixos que não podem ser respondidos apenas servindo para deixar mensagens. As comunidades são controladas por um dono ou seja quem cria o tópico, podem este delegar direitos a até 10 moderadores que passam a controlar todos os acessos a este tópico podendo apagar respostas e até banir certos utilizadores por abuso ou comportamento indigno. Visto o tamanho da comunidade estar continuamente a aumentar o Orkut conta com um bom sistema de busca de modo a os utilizadores poderem pesquisar por novos amigos e novas comunidades internas ao Orkut, a pesquisa pode ser orientada a vários contextos como o nome, morada, gostos, etc. Uma recente ferramenta adicionada ao Orkut é a possibilidade de os utilizadores poderem saber quem visitou o seu perfil, esta nova utilidade causou alguma apreensão relacionada com a invasão de privacidade levando o Orkut a disponibilizar a possibilidade de se aceder a perfis anonimamente. Relativamente aos utilizadores o Orkut conta actualmente com praticamente 34 milhões de utilizadores sendo estes maioritariamente brasileiros que constituem 62.92% dos utilizadores registados do Orkut, os portugueses representam apenas 0.46% ou seja perto de 160 mil utilizadores. Actualmente e dado o crescimento destas comunidades existem também ferramentas externas ao Orkut a ser disponibilizadas. As mais conhecidas e com mais projecção 177

178 são sem duvida as extensões aos web browsers que permitem uma melhor e mais fácil interacção dos utilizadores com o Orkut, existindo por exemplo ferramentas para alterar o fuso horário, retirar o spam das páginas entre muitas outras. O Orkut veio também criar termos próprios associados à comunidade de modo a permitir uma comunicação mais eficiente entre utilizadores e de certa maneira também menos explicita para alguém de fora. Entre os termos mais utilizados que na sua maioria são brasileiros dados o grande número de brasileiros registados, temos então Orkutar que significa aceder ao site do Orkut, Scraps que são os comentários de outros utilizadores ao perfil de outro utilizador vem do termo Scrapbook e ainda Orkuticídio usado quando um utilizador pretende fechar a sua conta do Orkut. É claro que nem todo no Orkut são coisa boas, sendo que certos utilizadores não estão de todo satisfeitos com algumas situações existentes, entra elas podemos citar as mais persistentes que são a falta de materialização das amizades dentro da comunidade ou seja as pessoas amigas no Orkut raramente passam à fase em que se conhecem pessoalmente, outro dos problemas tem talvez um maior impacto e diz respeito à lentidão do servidor que em alturas de pico de utilização simplesmente não aguenta toda a carga, temos também o problema do spam que devido a toda a gente poder escrever em quase qualquer sitio dentro da comunidade deixa aberta a porta para abusos o que leva pessoas menos bem intencionadas a aproveitar este facto, dentro do problema da liberdade de cada membro poder fazer praticamente o que quiser também a questão dos perfis falsos normalmente associados a pessoas famosa mas não só, por fim temos também o problema dos vírus onde membros enviam mensagens a outros membros com vírus escondidos sendo este também um meio fácil de espalhar vírus pela comunidade levando os utilizadores a terem receio de todas as mensagens que recebem. 3. Aspectos Económicos Numa primeira análise, não é fácil encontrar como é que estes sites conseguem pagar as suas despesas. Aliás é engraçado ver que devido ao seu crescimento exponencial muitos destes sites morrem quando começam a ter um grande crescimento, pois não conseguem pagar os custos para suportar este on-line. Obviamente quantos mais utilizadores estes tiverem, mais custos estas redes terão, pois será necessário aumentar velocidades de ligação assim como comprar servidores mais potentes, para que o website continue em funcionamento. Então como é que estas comunidades conseguem existir, quando o seu crescimento é grande? Bem nas fases iniciais, estas funcionam através de financiamento de capitais de risco. Sem um capital inicial grande, como o cedido por uma destas capitais de risco, uma comunidade social com um crescimento normal, não conseguirá sobreviver por não poder suportar economicamente o crescimento que teve. Á medida que o número de utilizadores e popularidade destes começa a subir, começa a ser possível retirar valor através da publicidade. Claro que numa fase inicial as receitas vindas da publicidade são bastante pequenas, mas à medida que os utilizadores vão crescendo, também as receitas vindo da publicidade vão crescendo rapidamente. Esta é a principal fonte de rendimento destes sites. Temos por exemplo 178

179 os milhões pagos pela Google ao Myspace, para que este usasse o seu motor de busca na pesquisa do seu site durante alguns anos. (basicamente o Myspace ganhou milhões, para utilizar um motor de busca bastante eficiente no seu site e uma imagem a informar que este é da Google). Outro dos esquemas que começam a ser utilizados é o conceito de power users. Basicamente um utilizador que queira um pacote de funcionalidades especiais, para além das disponíveis, terá que pagar uma certa quantia de dinheiro, para poder usufruir destas durante uma certa fatia de tempo. Também dentro deste conceito temos a venda de aplicações clientes que também permitem funcionalidades que não são oferecidas no website, mas que aumentam a qualidade de utilização dos serviços. Outra das possibilidades de ganhar fundos será através da venda de produtos, como musicas, desenhos, imagens, etc., dos seus utilizadores. Por cada transacção feita pelo site, este ganha uma dada comissão da transacção efectuada. Outra fonte de rendimento mais escondida, mas que pode ser bastante rentável será a informação contida nestas comunidades. Vamos por exemplo analisar a comunidade de música do Myspace. Através de datamining na sua base de dados, é possível retirar informação das músicas/estilos mais retiradas ou ouvidas, por utilizadores que se encontram numa dada localização geográfica. Essa informação de gostos numa dada área geográfica é bastante valiosa. È possível criar estudos de mercado bastante fiáveis e que de certeza serão de valor bastante elevado para empresas que se insiram no mercado. As receitas que podem ser ganhas com o tratamento desta informação poderão ser bastante elevadas. Quanto maior for a comunidade social, maior será a sua abrangência a nível geográfico, assim como a precisão da informação. É fácil imaginar quantas empresas não pagariam para saber se o tipo de produto que estão a pensar produzir, numa certa área geográfica será um enorme sucesso (pois vai de encontro aos gostos pessoais da maioria das pessoas nessa localização) ou vai ser um enorme insucesso. Esta talvez poderá ser uma fonte de rendimento bastante poderosa, mas apenas é possível começar a usufruir desta, após se atingir um crescimento elevado a nível mundial. Este só será possível utilizando os métodos anteriormente referenciados. Para os criadores de uma comunidade social os rendimentos referidos anteriormente não estão habitualmente nos seus objectivos. Normalmente estes têm o objectivo de se aguentarem online durante um período de dois ou três anos e conseguirem obter um crescimento bastante elevado, de maneira a chamar a atenção de grandes empresas web como a Google, Yahoo ou MSN. Estes normalmente compram estas comunidades por valores bastante elevados. Um exemplo bastante recente de uma situação destas, foi o Youtube que foi comprado pela Google por quase dois biliões de dólares. 4. Diferenças Culturais e a Evolução das Comunidades Através da evolução da adesão das pessoas a estas comunidades sociais podemos constatar que as diferenças culturais existentes entre pessoas de nacionalidades diferentes influenciam em muito a participação e iniciativa nestas comunidades. Tendo como referência o Orkut, que surgiu nos Estados Unidos, verificámos que numa fase inicial o site era frequentado maioritariamente por norte americanos e as 179

180 outras nacionalidades tinham pouca relevância a nível de quota de utilizadores, como se pode ver pelo apuramento demográfico no segundo mês de vida do Orkut. Surpreendentemente, o Orkut teve um sucesso e uma evolução de tal ordem a nível mundial que a demografia dos utilizadores se alterou por completo. No Brasil esta comunidade foi um autêntico fenómeno de popularidade e os cidadãos brasileiros passaram a dominar com maioria absoluta o Orkut. Vendo o gráfico seguinte, da situação demográfica do Orkut há cerca de dois mês atrás, os números falam por si. Analisando esse takeover do Orkut por parte da comunidade brasileira podemos tentar perceber algumas características destes utilizadores que resultaram nesse sucesso de adesão. Em termos culturais os brasileiros são tipicamente alegres, gostam do convívio social, conhecem muitas pessoas e são extremamente activos na criação de comunidades e grupos de interesse entre os seus amigos e conhecidos. No Orkut as comunidades em língua portuguesa abundam e verifica-se que são extremamente 180

Bioinformática Aula 01

Bioinformática Aula 01 Bioinformática Aula 01 Prof. Ricardo Martins Ramos * * Doutorando em Genética e Toxicologia Aplicada CEFET-PI/ULBRA-RS Linha de Pesquisa Bioinformática Estrutural E-mail: ricardo@cefetpi.br Visão Holística

Leia mais

Replicação Quais as funções do DNA?

Replicação Quais as funções do DNA? Replicação Quais as funções do DNA? Aula nº 4 22/Set/08 Prof. Ana Reis Replicação O DNA é a molécula que contém a informação para todas as actividades da célula. Uma vez que as células se dividem, é necessário

Leia mais

Criado e Desenvolvido por: Todos os direitos são reservados 2015. www.tioronni.com

Criado e Desenvolvido por: Todos os direitos são reservados 2015. www.tioronni.com Criado e Desenvolvido por: Todos os direitos são reservados 2015. www.tioronni.com O NÚCLEO E A SÍNTESE PROTEÍCA O núcleo celular, descoberto em 1833 pelo pesquisador escocês Robert Brown, é uma estrutura

Leia mais

Hoje estudaremos a bioquímica dos ácidos nucléicos. Acompanhe!

Hoje estudaremos a bioquímica dos ácidos nucléicos. Acompanhe! Aula: 2 Temática: Ácidos Nucléicos Hoje estudaremos a bioquímica dos ácidos nucléicos. Acompanhe! Introdução: Os ácidos nucléicos são as moléculas com a função de armazenamento e expressão da informação

Leia mais

Miguel Rocha Dep. Informática - Universidade do Minho. BIOINFORMÁTICA: passado, presente e futuro!!

Miguel Rocha Dep. Informática - Universidade do Minho. BIOINFORMÁTICA: passado, presente e futuro!! Miguel Rocha Dep. Informática - Universidade do Minho BIOINFORMÁTICA: passado, presente e futuro!! Bragança, 11 de Maio de 2006 Porquê a Bioinformática?! Novas tecnologias experimentais da Biologia Molecular

Leia mais

DO GENE À PROTEÍNA ALGUNS CONCEITOS BASICOS COMO SE ORGANIZAM OS NUCLEÓTIDOS PARA FORMAR O DNA?

DO GENE À PROTEÍNA ALGUNS CONCEITOS BASICOS COMO SE ORGANIZAM OS NUCLEÓTIDOS PARA FORMAR O DNA? DO GENE À PROTEÍNA O processo de formação das proteínas no ser humano pode ser difícil de compreender e inclui palavras e conceitos que possivelmente nos são desconhecidos. Assim, vamos tentar explicar

Leia mais

COMUNICAÇÃO DA INFORMAÇÃO NAS MOLÉCULAS DE DNA E RNA

COMUNICAÇÃO DA INFORMAÇÃO NAS MOLÉCULAS DE DNA E RNA COMUNICAÇÃO DA INFORMAÇÃO NAS MOLÉCULAS DE DNA E RNA Andréia Cristina Hypólito José 11075810 Fernando Caldas Oliveira 11085410 Giovana Zaninelli 11017210 Renato Fernandes Sartori 11061110 Rodrigo de Mello

Leia mais

BANCO DE QUESTÕES - BIOLOGIA - 1ª SÉRIE - ENSINO MÉDIO ==============================================================================================

BANCO DE QUESTÕES - BIOLOGIA - 1ª SÉRIE - ENSINO MÉDIO ============================================================================================== PROFESSOR: Leonardo Mariscal BANCO DE QUESTÕES - BIOLOGIA - 1ª SÉRIE - ENSINO MÉDIO ============================================================================================== Ácidos Nucleicos 01- Os

Leia mais

Curso Geral de Gestão. Pós Graduação

Curso Geral de Gestão. Pós Graduação Curso Geral de Gestão Pós Graduação Curso Geral de Gestão Pós Graduação Participamos num processo acelerado de transformações sociais, políticas e tecnológicas que alteram radicalmente o contexto e as

Leia mais

Equipe de Biologia. Biologia

Equipe de Biologia. Biologia Aluno (a): Série: 3ª Turma: TUTORIAL 5B Ensino Médio Equipe de Biologia Data: Biologia Ácidos nucléicos Os ácidos nucléicos são moléculas gigantes (macromoléculas), formadas por unidades monoméricas menores

Leia mais

DE DOCUMENTO ELABORADO PELO GRUPO DE TRABALHO REUNIDO EM SANTA CRUZ DE LA SIERRA, BOLÍVIA, ENTRE OS DIAS 3 E 5 DE MAIO DE

DE DOCUMENTO ELABORADO PELO GRUPO DE TRABALHO REUNIDO EM SANTA CRUZ DE LA SIERRA, BOLÍVIA, ENTRE OS DIAS 3 E 5 DE MAIO DE A REDE on-line (PROJECTO DE DOCUMENTO ELABORADO PELO GRUPO DE TRABALHO REUNIDO EM SANTA CRUZ DE LA SIERRA, BOLÍVIA, ENTRE OS DIAS 3 E 5 DE MAIO DE 2006) SUMÁRIO: I. INTRODUÇÃO; II. OBJECTIVOS DA REDE on-line

Leia mais

Actualização da. Preparada pela Comissão Europeia para o Conselho Europeu de Nice 7 e 8 de Dezembro de 2000

Actualização da. Preparada pela Comissão Europeia para o Conselho Europeu de Nice 7 e 8 de Dezembro de 2000 COMUNICAÇÃO DA COMISSÃO AO CONSELHO E AO PARLAMENTO EUROPEU Actualização da Preparada pela Comissão Europeia para o Conselho Europeu de Nice 7 e 8 de Dezembro de 2000 1 1. Introdução Em Dezembro de 1999,

Leia mais

PRIMAVERA BUSINESS SOFTWARE SOLUTIONS, SA

PRIMAVERA BUSINESS SOFTWARE SOLUTIONS, SA PRIMAVERA BUSINESS SOFTWARE SOLUTIONS, SA Introdução Nesta edição do Catálogo de Serviços apresentamos os vários tipos de serviços que compõe a actual oferta da Primavera na área dos serviços de consultoria.

Leia mais

2.3. Sistemas de Informação

2.3. Sistemas de Informação 2.3. Sistemas de Informação 2.3.1. Sistema Comecemos por observar como definem diversos autores o que será um sistema, sistema é um conjunto complexo de inúmeras partes que interagem (MAXIMIANO, Antonio

Leia mais

Guimarães, 13 de Maio de 2002. Luis Amaral. Universidade do Minho

Guimarães, 13 de Maio de 2002. Luis Amaral. Universidade do Minho Prefácio A Arquitectura dos Sistemas de Informação, enquanto assunto central da área disciplinar das Tecnologias e Sistemas de Informação é, na minha opinião, um dos seus temas mais importantes e, simultaneamente,

Leia mais

Conceito. As empresas como ecossistemas de relações dinâmicas

Conceito. As empresas como ecossistemas de relações dinâmicas Conceito As empresas como ecossistemas de relações dinâmicas PÁG 02 Actualmente, face à crescente necessidade de integração dos processos de negócio, as empresas enfrentam o desafio de inovar e expandir

Leia mais

3 ao Quadrado - Agenda Web

3 ao Quadrado - Agenda Web 3 ao Quadrado - Agenda Web Relatório de Gestão de Projectos de Software - Grupo A - LEIC 2001/2002 http://gnomo.fe.up.pt/gps01a João Montenegro - ei97023@fe.up.pt André Teixeira - ei97024@fe.up.pt Carlos

Leia mais

Carta de Segurança da Informação

Carta de Segurança da Informação Estrutura Nacional de Segurança da Informação (ENSI) Fevereiro 2005 Versão 1.0 Público Confidencial O PRESENTE DOCUMENTO NÃO PRESTA QUALQUER GARANTIA, SEJA QUAL FOR A SUA NATUREZA. Todo e qualquer produto

Leia mais

O controlo de gestão nas unidades de saúde: o Balanced Scorecard

O controlo de gestão nas unidades de saúde: o Balanced Scorecard O controlo de gestão nas unidades de saúde: o Balanced Scorecard P o r C a r l o s M a n u e l S o u s a R i b e i r o O Balanced Scorecard apresenta-se como alternativa viável aos tradicionais sistemas

Leia mais

21º Congresso Quantificar o Futuro. Venture Lounge 23 e 24 de Novembro - CCL

21º Congresso Quantificar o Futuro. Venture Lounge 23 e 24 de Novembro - CCL 21º Congresso Quantificar o Futuro Venture Lounge 23 e 24 de Novembro - CCL Programa Data Hora Actividade 23/Nov. 11:30 Inauguração Oficial Innovation Lounge Visita efectuada ao Venture Lounge por Sua

Leia mais

O e-gov em Portugal. Fórum Vale do Minho Digital Melgaço 30 de Setembro de 2008

O e-gov em Portugal. Fórum Vale do Minho Digital Melgaço 30 de Setembro de 2008 O e-gov em Portugal Fórum Vale do Minho Digital Melgaço 30 de Setembro de 2008 O Plano Tecnológico é uma estratégia de mudança da base competitiva através do conhecimento, tecnologia e inovação 2 Conhecimento

Leia mais

GESTÃO. Gestão dos Processos e Operações Gestão de Sistemas e Tecnologias de Informação (dentro do capítulo 6) CLF

GESTÃO. Gestão dos Processos e Operações Gestão de Sistemas e Tecnologias de Informação (dentro do capítulo 6) CLF GESTÃO Gestão dos Processos e Operações Gestão de Sistemas e Tecnologias de Informação (dentro do capítulo 6) Informação e Decisões Gerir envolve tomar muitas e frequentes decisões Para decidir com eficácia

Leia mais

Capítulo Descrição Página

Capítulo Descrição Página MANUAL DA QUALIIDADE ÍNDICE Capítulo Descrição Página 1 Apresentação da ILC Instrumentos de Laboratório e Científicos, Lda Dados sobre a ILC, sua história, sua organização e modo de funcionamento 2 Política

Leia mais

Painéis Do Organismo ao Genoma

Painéis Do Organismo ao Genoma Painéis Do Organismo ao Genoma A série de 5 painéis do organismo ao genoma tem por objetivo mostrar que os organismos vivos são formados por células que funcionam de acordo com instruções contidas no DNA,

Leia mais

OLIVEIRA, Helena. Como gerir a informação. DIGITAL ON LINE, v.5, n.5, Mai, 1999

OLIVEIRA, Helena. Como gerir a informação. DIGITAL ON LINE, v.5, n.5, Mai, 1999 COMO GERIR A INFORMAÇÃO OLIVEIRA, Helena. Como gerir a informação. DIGITAL ON LINE, v.5, n.5, Mai, 1999 RESUMO:"O mundo dos negócios vai mudar mais nos próximos 10 anos do que nos últimos 50 anos. O êxito

Leia mais

Paulo César Especialista de Soluções da ATM informática paulo.cesar@atminformatica.pt

Paulo César Especialista de Soluções da ATM informática paulo.cesar@atminformatica.pt Desktop Virtual Paulo César Especialista de Soluções da ATM informática paulo.cesar@atminformatica.pt Tendo em conta que a Virtualização será um dos principais alvos de investimento para o ano 2009 (dados

Leia mais

Qpoint Rumo à Excelência Empresarial

Qpoint Rumo à Excelência Empresarial 2 PRIMAVERA BSS Qpoint Rumo à Excelência Empresarial Numa era em que a competitividade entre as organizações é decisiva para o sucesso empresarial, a aposta na qualidade e na melhoria contínua da performance

Leia mais

António Amaro Marketing Digital Junho 2014 INTRODUÇÃO E OBJECTIVOS

António Amaro Marketing Digital Junho 2014 INTRODUÇÃO E OBJECTIVOS INTRODUÇÃO E OBJECTIVOS FACTOS A Internet mudou profundamente a forma como as pessoas encontram, descobrem, compartilham, compram e se conectam. INTRODUÇÃO Os meios digitais, fazendo hoje parte do quotidiano

Leia mais

Os Sistemas de Informação Regionais das Cidades e Regiões Digitais na vertente Infraestrutural

Os Sistemas de Informação Regionais das Cidades e Regiões Digitais na vertente Infraestrutural Os Sistemas de Informação Regionais das na vertente Infraestrutural 1, 2 1 Instituto Politécnico de Tomar Tomar, Portugal 2 Centre of Human Language Tecnnology and Bioinformatics Universidade da Beira

Leia mais

3 A plataforma Moodle do Centro de Competência Softciências

3 A plataforma Moodle do Centro de Competência Softciências 3 A plataforma Moodle do Centro de Competência Softciências Dar a cana para ensinar a pescar (adágio popular) 3.1 O Centro de Competência O Centro de Competência Softciências, instituição activa desde

Leia mais

Hospital de Faro E.P.E optimiza recursos humanos e financeiros com solução Microsoft BI

Hospital de Faro E.P.E optimiza recursos humanos e financeiros com solução Microsoft BI Caso de sucesso Microsoft Hospital de Faro E.P.E optimiza recursos humanos e financeiros com solução Microsoft BI Sumário País: Portugal Sector: Saúde Perfil do Cliente Hospital de Faro EPE é o hospital

Leia mais

Estratégia de parceria global da IBIS 2012. Estratégia de parceria global da IBIS

Estratégia de parceria global da IBIS 2012. Estratégia de parceria global da IBIS Estratégia de parceria global da IBIS Aprovada pelo conselho da IBIS, Agosto de 2008 1 Introdução A Visão da IBIS 2012 realça a importância de estabelecer parcerias com diferentes tipos de organizações

Leia mais

Câmara Municipal de Cascais é uma boa prática no relacionamento com os cidadãos

Câmara Municipal de Cascais é uma boa prática no relacionamento com os cidadãos 27 LEADERSHIP AGENDA a inovação na gestão do relacionamento compensa Câmara Municipal de Cascais é uma boa prática no relacionamento com os cidadãos A participação activa dos cidadãos é vital para a promoção

Leia mais

PORTUGAL 2020: EMPREENDEDORISMO E CAPITAL DE RISCO

PORTUGAL 2020: EMPREENDEDORISMO E CAPITAL DE RISCO PORTUGAL 2020: EMPREENDEDORISMO E CAPITAL DE RISCO A noção de Empreendedorismo, como uma competência transversal fundamental para o desenvolvimento humano, social e económico, tem vindo a ser reconhecida

Leia mais

Uma plataforma estratégica

Uma plataforma estratégica Publicado: Fevereiro 2007 Autor: Rui Loureiro Sénior Partner Implementar o Help Desk Quando simplesmente pensamos em implementar um Help Desk, isso pode significar uma solução fácil de realizar ou algo

Leia mais

Evaluación del Plan de Comunicación del Programa Operativo de Cooperación Territorial del Sudoeste Europeo (SUDOE) 2007 2013

Evaluación del Plan de Comunicación del Programa Operativo de Cooperación Territorial del Sudoeste Europeo (SUDOE) 2007 2013 Evaluación del Plan de Comunicación del Programa Operativo de Cooperación Territorial del Sudoeste Europeo (SUDOE) 2007 2013 UNIÓN EUROPEA 1 de junio de 2011 3. SUMÁRIO EXECUTIVO A avaliação do Plano de

Leia mais

Guia de Websites para a Administração Pública

Guia de Websites para a Administração Pública Guia de Websites para a Administração Pública Portugal precisa de um desafio de exigência e de conhecimento que nos eleve aos níveis de competência e de produtividade dos países mais desenvolvidos, de

Leia mais

Bioinformática Histórico e conceitos básicos

Bioinformática Histórico e conceitos básicos Bioinformática Histórico e conceitos básicos Raimundo Lima da S. Júnior M.Sc. Departamento de Biologia Núcleo de Pesquisas Replicon PUC-GO Silva Jr., RL Casamento entre a ciência da computação e a biologia

Leia mais

MANUAL FORMAÇÃO PME GESTÃO ESTRATÉGICA

MANUAL FORMAÇÃO PME GESTÃO ESTRATÉGICA MANUAL FORMAÇÃO PME GESTÃO ESTRATÉGICA 1/21 ANÁLISE DA ENVOLVENTE EXTERNA À EMPRESA... 3 1. Análise do Meio Envolvente... 3 2. Análise da Evolução do Mercado... 7 3. Análise da Realidade Concorrencial...

Leia mais

O QUE É A CERTIFICAÇÃO DA QUALIDADE?

O QUE É A CERTIFICAÇÃO DA QUALIDADE? 1 O QUE É A CERTIFICAÇÃO DA QUALIDADE? A globalização dos mercados torna cada vez mais evidente as questões da qualidade. De facto a maioria dos nossos parceiros económicos não admite a não qualidade.

Leia mais

ANA obtém certificação em quatro áreas críticas com apoio da VP Consulting

ANA obtém certificação em quatro áreas críticas com apoio da VP Consulting ANA obtém certificação em quatro áreas críticas com apoio da VP Consulting Contactos: Isabel Fonseca Marketing VP Consulting Telefone: +351 22 605 37 10 Fax: +351 22 600 07 13 Email: info@vpconsulting.pt

Leia mais

Criado e Desenvolvido por: RONNIELLE CABRAL ROLIM Todos os direitos são reservados 2015. www.tioronni.com

Criado e Desenvolvido por: RONNIELLE CABRAL ROLIM Todos os direitos são reservados 2015. www.tioronni.com Criado e Desenvolvido por: RONNIELLE CABRAL ROLIM Todos os direitos são reservados 2015. www.tioronni.com ÁCIDOS NUCLEICOS ÁCIDOS NUCLÉICOS: são substâncias formadoras de genes, constituídas por um grande

Leia mais

Bases Moleculares da Hereditariedade

Bases Moleculares da Hereditariedade UNIVERSIDADE FEDERAL DO PIAUÍ CENTRO DE CIÊNCIAS AGRÁRIAS PROG. DE PÓS GRAD. EM GENET. E MELHORAMENTO NÚCLEO DE ESTUDOS EM GENET. E MELHORAMENTO Bases Moleculares da Hereditariedade Ministrante: João Paulo

Leia mais

SISTEMAS DE GESTÃO DA QUALIDADE

SISTEMAS DE GESTÃO DA QUALIDADE SISTEMAS DE GESTÃO DA QUALIDADE Objectivos do Curso. No final deste os alunos deverão: Identificar os principais objectivos associados à implementação de Sistemas de Gestão da Qualidade (SGQ) Compreender

Leia mais

Programas Operacionais e Sistemas de Incentivos às Empresas

Programas Operacionais e Sistemas de Incentivos às Empresas Programas Operacionais e Sistemas de Incentivos às Empresas Da União Europeia vão chegar até 2020 mais de 20 mil milhões de euros a Portugal. Uma pipa de massa, nas palavras do ex-presidente da Comissão

Leia mais

Estrutura da Norma. 0 Introdução 0.1 Generalidades. ISO 9001:2001 Sistemas de Gestão da Qualidade Requisitos. Gestão da Qualidade 2005

Estrutura da Norma. 0 Introdução 0.1 Generalidades. ISO 9001:2001 Sistemas de Gestão da Qualidade Requisitos. Gestão da Qualidade 2005 ISO 9001:2001 Sistemas de Gestão da Qualidade Requisitos Gestão da Qualidade 2005 Estrutura da Norma 0. Introdução 1. Campo de Aplicação 2. Referência Normativa 3. Termos e Definições 4. Sistema de Gestão

Leia mais

INTERVENÇÃO DE SUA EXCELÊNCIA O MINISTRO DAS OBRAS PÚBLICAS, TRANSPORTES E COMUNICAÇÕES. Eng. Mário Lino

INTERVENÇÃO DE SUA EXCELÊNCIA O MINISTRO DAS OBRAS PÚBLICAS, TRANSPORTES E COMUNICAÇÕES. Eng. Mário Lino INTERVENÇÃO DE SUA EXCELÊNCIA O MINISTRO DAS OBRAS PÚBLICAS, TRANSPORTES E COMUNICAÇÕES Eng. Mário Lino por ocasião da Cerimónia de Abertura do Diálogo Estratégico sobre as Tecnologias da Informação e

Leia mais

1 Descrição sumária. Varajão, Santana, Cunha e Castro, Adopção de sistemas CRM nas grandes empresas portuguesas, Computerworld, 2011 1

1 Descrição sumária. Varajão, Santana, Cunha e Castro, Adopção de sistemas CRM nas grandes empresas portuguesas, Computerworld, 2011 1 Adopção de sistemas CRM nas grandes empresas portuguesas João Varajão 1, Daniela Santana 2, Manuela Cunha 3, Sandra Castro 4 1 Escola de Ciências e Tecnologia, Departamento de Engenharias, Universidade

Leia mais

Bioinformática. Licenciaturas em Biologia, Bioquímica, Biotecnologia, Ciências Biomédicas, Engenharia Biológica. João Varela jvarela@ualg.

Bioinformática. Licenciaturas em Biologia, Bioquímica, Biotecnologia, Ciências Biomédicas, Engenharia Biológica. João Varela jvarela@ualg. Bioinformática Licenciaturas em Biologia, Bioquímica, Biotecnologia, Ciências Biomédicas, Engenharia Biológica João Varela jvarela@ualg.pt Docentes Paulo Martel (alinhamentos, pesquisas de sequências em

Leia mais

Nota: texto da autoria do IAPMEI - UR PME, publicado na revista Ideias & Mercados, da NERSANT edição Setembro/Outubro 2005.

Nota: texto da autoria do IAPMEI - UR PME, publicado na revista Ideias & Mercados, da NERSANT edição Setembro/Outubro 2005. Cooperação empresarial, uma estratégia para o sucesso Nota: texto da autoria do IAPMEI - UR PME, publicado na revista Ideias & Mercados, da NERSANT edição Setembro/Outubro 2005. É reconhecida a fraca predisposição

Leia mais

António Amaro Marketing Digital Junho 2014 INTRODUÇÃO E OBJECTIVOS

António Amaro Marketing Digital Junho 2014 INTRODUÇÃO E OBJECTIVOS INTRODUÇÃO E OBJECTIVOS FACTOS A Internet mudou profundamente a forma como as pessoas encontram, descobrem, compartilham, compram e se conectam. INTRODUÇÃO Os meios digitais, fazendo hoje parte do quotidiano

Leia mais

Linguateca e Processamento de Linguagem Natural na Área da Saúde: Alguns Comentários e Sugestões

Linguateca e Processamento de Linguagem Natural na Área da Saúde: Alguns Comentários e Sugestões Capítulo 7 Linguateca e Processamento de Linguagem Natural na Área da Saúde: Alguns Comentários e Sugestões Liliana Ferreira, António Teixeira e João Paulo da Silva Cunha Luís Costa, Diana Santos e Nuno

Leia mais

Conclusões da Conferência Anual do INFARMED, I.P. 2009

Conclusões da Conferência Anual do INFARMED, I.P. 2009 Conclusões da Conferência Anual do INFARMED, I.P. 2009 Conferência de abertura Medicina Genómica: Impacto na Eficácia e Segurança dos Medicamentos O cada vez mais reduzido número de novos medicamentos

Leia mais

PROGRAMA NACIONAL DE ACREDITAÇÃO EM SAÚDE

PROGRAMA NACIONAL DE ACREDITAÇÃO EM SAÚDE PROGRAMA NACIONAL DE ACREDITAÇÃO EM SAÚDE 2009 3 ÍNDICE I INTRODUÇÃO 4 II MODELO NACIONAL DE ACREDITAÇÃO EM SAÚDE 5 III ÂMBITO DE APLICAÇÃO 8 IV OBJECTIVO GERAL 8 V OBJECTIVOS ESPECÍFICOS 8 VI ESTRATÉGIAS

Leia mais

O processo fisiológico que está representado no gráfico é

O processo fisiológico que está representado no gráfico é Questão 01) Analise o gráfico a seguir. Disponível em: . Acesso em: 22 set. 2014. O processo fisiológico que está representado no gráfico é a) o efeito do aumento

Leia mais

Cerimónia de lançamento do contrato de colaboração entre o Estado Português e o Massachusetts Institute of Technology, MIT

Cerimónia de lançamento do contrato de colaboração entre o Estado Português e o Massachusetts Institute of Technology, MIT Cerimónia de lançamento do contrato de colaboração entre o Estado Português e o Massachusetts Institute of Technology, MIT Centro Cultural de Belém, Lisboa, 11 de Outubro de 2006 Intervenção do Secretário

Leia mais

O Governo Electrónico em Portugal. Um estudo com alunos de Administração Pública Célio Gonçalo Marques 1, Vasco Gestosa da Silva 2, Ricardo Campos 3

O Governo Electrónico em Portugal. Um estudo com alunos de Administração Pública Célio Gonçalo Marques 1, Vasco Gestosa da Silva 2, Ricardo Campos 3 O Governo Electrónico em Portugal. Um estudo com alunos de Administração Pública Célio Gonçalo Marques 1, Vasco Gestosa da Silva 2, Ricardo Campos 3 1, 2 e 3 Docente do Instituto Politécnico de Tomar 1

Leia mais

A EDGE é uma empresa Portuguesa de base tecnológica dedicada à criação e desenvolvimento de sistemas ciber-físicos de elevado desempenho e em tempo real que combinam de forma única a automação, a robótica,

Leia mais

ARTIGO: SOLUÇÕES PARA O SECTOR AUTARQUIAS in IGOV Maio 2010

ARTIGO: SOLUÇÕES PARA O SECTOR AUTARQUIAS in IGOV Maio 2010 CÂMARA MUNICIPAL DE SANTARÉM - R EVOLUÇÃO ADMINISTRATIVA A Autarquia de Santarém, em parceria com a PT Prime, desenvolveu um sistema de soluções integradas e inter-operantes que lhe possibilitaram operacionalizar

Leia mais

Bioinformática. Conceitos Fundamentais de Biologia Molecular. Paulo Henrique Ribeiro Gabriel phrg@ufu.br

Bioinformática. Conceitos Fundamentais de Biologia Molecular. Paulo Henrique Ribeiro Gabriel phrg@ufu.br Bioinformática Conceitos Fundamentais de Biologia Molecular Paulo Henrique Ribeiro Gabriel phrg@ufu.br Faculdade de Computação Universidade Federal de Uberlândia 24 de agosto de 2015 Paulo H. R. Gabriel

Leia mais

Nas redes sociais existem pessoas. E é nelas que temos que alicerçar qualquer estratégia que se pretenda bem sucedida no âmbito das redes sociais.

Nas redes sociais existem pessoas. E é nelas que temos que alicerçar qualquer estratégia que se pretenda bem sucedida no âmbito das redes sociais. Enquadramento Este estudo compila a análise pré e pós projecto de lançamento da aplicação REMAX Socializer e consolida o racional de aplicação do modelo Socializer ao negócio da REMAX e à sua instanciação

Leia mais

ILIMITADOS THE MARKETING COMPANY

ILIMITADOS THE MARKETING COMPANY ILIMITADOS THE MARKETING COMPANY _ CURRICULUM Composta por uma equipa multidisciplinar, dinâmica e sólida, Sobre Nós A ilimitados - the marketing company é uma empresa de serviços na área do Marketing,

Leia mais

Workshop Para onde vai o seu dinheiro Boas Práticas para o Orçamento da Saúde Antecipar questões em vez de criticar soluções. Documento de trabalho

Workshop Para onde vai o seu dinheiro Boas Práticas para o Orçamento da Saúde Antecipar questões em vez de criticar soluções. Documento de trabalho Workshop Para onde vai o seu dinheiro Boas Práticas para o Orçamento da Saúde Antecipar questões em vez de criticar soluções Documento de trabalho Para pedir às pessoas que colaborem activamente na sustentabilidade

Leia mais

Conexões entre matemática e biologia

Conexões entre matemática e biologia EB-207 Matemática Biológica 1 Conexões entre matemática e biologia Prof. Rodrigo Sávio Pessoa Sumário 2 1. Introdução 2. A nanotecnologia aplicada as ciências biológicas 3. Algumas questões biológicas

Leia mais

Núcleo Celular. Biomedicina primeiro semestre de 2012 Profa. Luciana Fontanari Krause

Núcleo Celular. Biomedicina primeiro semestre de 2012 Profa. Luciana Fontanari Krause Núcleo Celular Biomedicina primeiro semestre de 2012 Profa. Luciana Fontanari Krause Núcleo Celular Eucarioto: núcleo delimitado por membrana nuclear (carioteca) Portador dos fatores hereditários e controlador

Leia mais

sistemas de informação nas organizações

sistemas de informação nas organizações sistemas de nas organizações introdução introdução aos sistemas de objectivos de aprendizagem avaliar o papel dos sistemas de no ambiente empresarial actual definir um sistema de a partir de uma perspectiva

Leia mais

PHC dteamcontrol Externo

PHC dteamcontrol Externo PHC dteamcontrol Externo A gestão remota de projectos e de informação A solução via Internet que permite aos seus Clientes participarem nos projectos em que estão envolvidos, interagindo na optimização

Leia mais

Programas. cabo verde. Angola. portugal. s.tomé e príncipe. Fundación Universitaria San Pablo CEU

Programas. cabo verde. Angola. portugal. s.tomé e príncipe. Fundación Universitaria San Pablo CEU Programas de MESTRADO Online MBA Master in Business Administration Mestrado em Direcção de Empresas Mestrado em Direcção de Marketing e Vendas Mestrado em Direcção Financeira Mestrado em Comércio Internacional

Leia mais

Os primeiros indícios de que o DNA era o material hereditário surgiram de experiências realizadas com bactérias, sendo estas indicações estendidas

Os primeiros indícios de que o DNA era o material hereditário surgiram de experiências realizadas com bactérias, sendo estas indicações estendidas GENERALIDADES Todo ser vivo consiste de células, nas quais está situado o material hereditário. O número de células de um organismo pode variar de uma a muitos milhões. Estas células podem apresentar-se

Leia mais

Simplificação nas PMEs

Simplificação nas PMEs Simplificação nas PMEs Aproveitamento das Novas Tecnologias DGITA Portal Declarações Electrónicas Dezembro 2007 Simplificação nas PMEs - Aproveitamento das Novas Tecnologias 1 Agenda O que é a DGITA? Estratégia

Leia mais

Relatório da. Avaliação intercalar da execução do Plano de Acção da UE para as Florestas Contrato de Serviço N.º 30-CE-0227729/00-59.

Relatório da. Avaliação intercalar da execução do Plano de Acção da UE para as Florestas Contrato de Serviço N.º 30-CE-0227729/00-59. Relatório da Avaliação intercalar da execução do Plano de Acção da UE para as Florestas Contrato de Serviço N.º 30-CE-0227729/00-59 Resumo Novembro de 2009 Avaliação intercalar da execução do Plano de

Leia mais

Tipologia de Intervenção 6.4

Tipologia de Intervenção 6.4 Documento Enquadrador Tipologia de Intervenção 6.4 Qualidade dos Serviços e Organizações Acções de consultoria inseridas no processo que visa conferir uma certificação de qualidade às organizações que

Leia mais

O Recurso a Meios Digitais no Contexto do Ensino Superior. Um Estudo de Uso da Plataforma.

O Recurso a Meios Digitais no Contexto do Ensino Superior. Um Estudo de Uso da Plataforma. O Recurso a Meios Digitais no Contexto do Ensino Superior. Um Estudo de Uso da Plataforma. Universidade de Aveiro Mestrado em Gestão da Informação Christelle Soigné Palavras-chave Ensino superior. e-learning.

Leia mais

Senhora Presidente da Escola Superior de Enfermagem de Coimbra, Maria da Conceição Saraiva da Silva Costa Bento Senhoras e Senhores,

Senhora Presidente da Escola Superior de Enfermagem de Coimbra, Maria da Conceição Saraiva da Silva Costa Bento Senhoras e Senhores, Boa tarde Senhora Presidente da Escola Superior de Enfermagem de Coimbra, Maria da Conceição Saraiva da Silva Costa Bento Senhoras e Senhores, Deixem-me dizer-vos que é para mim uma honra participar, na

Leia mais

A Internet nas nossas vidas

A Internet nas nossas vidas Economia Digital A Internet nas nossas vidas Nos últimos anos a internet revolucionou a forma como trabalhamos, comunicamos e até escolhemos produtos e serviços Economia Digital Consumidores e a Internet

Leia mais

O RELACIONAMENTO COM O CIDADÃO A importância do Território

O RELACIONAMENTO COM O CIDADÃO A importância do Território Conferência Ibero-Americana WWW/Internet 2004 7/8 Outubro, Madrid, Espanha O RELACIONAMENTO COM O CIDADÃO A importância do Território Jorge Xavier Aluno de Mestrado DEGEI UA Campus Universitário de Santiago.

Leia mais

Na APCER, o Microsoft Dynamics CRM é central na gestão comercial e na obtenção de indicadores

Na APCER, o Microsoft Dynamics CRM é central na gestão comercial e na obtenção de indicadores Microsoft Dynamics CRM Customer Solution Case Study APCER Na APCER, o Microsoft Dynamics CRM é central na gestão comercial e na obtenção de indicadores Sumário País Portugal Sector Serviços Perfil do Cliente

Leia mais

na relação entre os sistemas de informação e as pessoas, negócio e organizações." - ISJ,

na relação entre os sistemas de informação e as pessoas, negócio e organizações. - ISJ, 1. Introdução Este trabalho enquadra-se na área de Engenharia de Requisitos (ER). O problema abordado é o da insatisfação com as aplicações das Tecnologias de Informação (TI), utilizadas para suportar

Leia mais

Grupo Pestana. suporta crescimento da área de venda directa no CRM. O Cliente

Grupo Pestana. suporta crescimento da área de venda directa no CRM. O Cliente Grupo Pestana suporta crescimento da área de venda directa no CRM. O trabalho de consolidação de informação permitiu desde logo abrir novas possibilidades de segmentação, com base num melhor conhecimento

Leia mais

Wall Street Institute resolve necessidades complexas de e-mail com solução Microsoft Exchange Online

Wall Street Institute resolve necessidades complexas de e-mail com solução Microsoft Exchange Online Wall Street Institute resolve necessidades complexas de e-mail com solução Microsoft Exchange Online Além da poupança na infra-estrutura física dos servidores e do preço das licenças, há reduções de custos

Leia mais

Princípios moleculares dos processos fisiológicos

Princípios moleculares dos processos fisiológicos 2012-04-30 UNIVERSIDADE AGOSTINHO NETO FACULDADE DE CIÊNCIAS DEI-BIOLOGIA ---------------------------------------------- Aula 5: Princípios moleculares dos processos fisiológicos (Fisiologia Vegetal, Ano

Leia mais

1. Introdução ao. Crystal Reports

1. Introdução ao. Crystal Reports 1. Introdução ao Crystal Reports Como é sabido e geralmente aceite por todos nós, vivemos um período onde a complexidade dos negócios é cada vez maior, tal como o prova a intensificação da concorrência,

Leia mais

Enunciado do Projecto

Enunciado do Projecto C O M P U T A Ç Ã O M Ó V E L 2 0 0 7 / 2 0 0 8 Enunciado do Projecto 17 de Março de 2008 1. Objectivos Desenvolver uma aplicação num domínio aplicacional específico que envolva replicação e sincronização

Leia mais

EDIÇÃO 2011/2012. Introdução:

EDIÇÃO 2011/2012. Introdução: EDIÇÃO 2011/2012 Introdução: O Programa Formação PME é um programa financiado pelo POPH (Programa Operacional Potencial Humano) tendo a AEP - Associação Empresarial de Portugal, como Organismo Intermédio,

Leia mais

Reengenharia de Processos

Reengenharia de Processos Reengenharia de Processos 1 Enquadramento 2 Metodologia 3 Templates 1 Enquadramento 2 Metodologia 3 Templates Transformação da Administração Pública É necessário transformar a Administração Pública de

Leia mais

CARTA DAS ONGD EUROPEIAS

CARTA DAS ONGD EUROPEIAS CARTA DAS ONGD EUROPEIAS Princípios Básicos do Desenvolvimento e da Ajuda Humanitária das ONGD da União Europeia O Comité de Liaison das ONG de Desenvolvimento da UE O Comité de Liaison ONGD-UE representa,

Leia mais

Agilidade organizacional e competitividade das empresas em Portugal. www.quidgest.com quidgest@quidgest.com

Agilidade organizacional e competitividade das empresas em Portugal. www.quidgest.com quidgest@quidgest.com Agilidade organizacional e competitividade das empresas em Portugal www.quidgest.com quidgest@quidgest.com 1. Introdução Novo contexto económico e tecnológico Metodologia 2. Agilidade Organizacional das

Leia mais

ITIL v3 melhora Gestão de Serviço de TI no CHVNG/Espinho

ITIL v3 melhora Gestão de Serviço de TI no CHVNG/Espinho Centro Hospitalar Vila Nova de Gaia/Espinho ITIL v3 melhora Gestão de Serviço de TI no CHVNG/Espinho Sumário País Portugal Sector Saúde Perfil do Cliente O Centro Hospitalar Vila Nova de Gaia/Espinho envolve

Leia mais

Competitividade e Inovação

Competitividade e Inovação Competitividade e Inovação Evento SIAP 8 de Outubro de 2010 Um mundo em profunda mudança Vivemos um momento de transformação global que não podemos ignorar. Nos últimos anos crise nos mercados financeiros,

Leia mais

Reabilitação do Sistema de Abastecimento de Água de Luena

Reabilitação do Sistema de Abastecimento de Água de Luena E1819 V6 Reabilitação do Sistema de Abastecimento de Água de Luena REHABILITATION OF LUENA WATER SUPPLY SYSTEM PGA PLANO DE GESTÃO AMBIENTAL (PGA) ENVIRONMENTAL MANAGEMENT PLAN (EMP) Adjudicante: Financial

Leia mais

PRESSUPOSTOS BASE PARA UMA ESTRATÉGIA DE INOVAÇÃO NO ALENTEJO

PRESSUPOSTOS BASE PARA UMA ESTRATÉGIA DE INOVAÇÃO NO ALENTEJO PRESSUPOSTOS BASE PARA UMA ESTRATÉGIA DE INOVAÇÃO NO ALENTEJO ÍNDICE 11. PRESSUPOSTO BASE PARA UMA ESTRATÉGIA DE INOVAÇÃO 25 NO ALENTEJO pág. 11.1. Um sistema regional de inovação orientado para a competitividade

Leia mais

A Importância dos Recursos Humanos (Gestão de

A Importância dos Recursos Humanos (Gestão de A Importância dos Recursos Humanos (Gestão de Pessoas) na Gestão Empresarial Marketing Interno Licenciatura de Comunicação Empresarial 3º Ano Docente: Dr. Jorge Remondes / Discente: Ana Teresa Cardoso

Leia mais

Universidade Fernando Pessoa

Universidade Fernando Pessoa Objectivos da cadeira reconhecer, criar e explorar um recurso de informação usar tecnologias de informação emergentes para a gestão eficaz do recurso informação discutir o impacto das tecnologias de informação

Leia mais

DNA E SÍNTESE PROTEICA

DNA E SÍNTESE PROTEICA 1- As acetabularias (fotografia à esquerda) são algas verdes marinhas, com 2 a 3 cm de altura, constituídas por uma base ou pé, onde está o núcleo, e um caulículo, na extremidade do qual se diferencia

Leia mais

Estratégia para os Sistemas e Tecnologias de Informação

Estratégia para os Sistemas e Tecnologias de Informação Estratégia para os Sistemas e Tecnologias de Informação A transcrição ou reprodução deste documento não é permitida sem a prévia autorização escrita do IGIF PRINCIPAIS MENSAGENS O IGIF, na vertente SI,

Leia mais

DECLARAÇÃO DE HANÔVER

DECLARAÇÃO DE HANÔVER DECLARAÇÃO DE HANÔVER de Presidentes de Câmara de Municípios Europeus na Viragem do Século XXI (versão traduzida do texto original em Inglês, de 11 de Fevereiro de 2000, pelo Centro de Estudos sobre Cidades

Leia mais

COMISSÃO DAS COMUNIDADES EUROPEIAS. Proposta de DECISÃO DO CONSELHO

COMISSÃO DAS COMUNIDADES EUROPEIAS. Proposta de DECISÃO DO CONSELHO COMISSÃO DAS COMUNIDADES EUROPEIAS Bruxelas, 9.7.2003 COM (2003) 390 final 2003/0151 (CNS) Proposta de DECISÃO DO CONSELHO que altera a Decisão 2002/834/CE que adopta o programa específico de investigação,

Leia mais

QUADRO DE REFERÊNCIA PARA A AVALIAÇÃO DE ESCOLAS E AGRUPAMENTOS

QUADRO DE REFERÊNCIA PARA A AVALIAÇÃO DE ESCOLAS E AGRUPAMENTOS QUADRO DE REFERÊNCIA PARA A AVALIAÇÃO DE ESCOLAS E AGRUPAMENTOS I Os cinco domínios 1. Resultados 2. Prestação do serviço educativo 3. Organização e gestão escolar 4. Liderança 5. Capacidade de auto-regulação

Leia mais

Gestão Total da Manutenção: Sistema GTM

Gestão Total da Manutenção: Sistema GTM Gestão Total da Manutenção: Sistema GTM por Engº João Barata (jbarata@ctcv.pt), CTCV Inovação Centro Tecnológico da Cerâmica e do Vidro 1. - INTRODUÇÃO Os sub-sistemas de gestão, qualquer que seja o seu

Leia mais