PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO PUC-SP

Tamanho: px
Começar a partir da página:

Download "PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO PUC-SP"

Transcrição

1 PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO PUC-SP DIOGO CORTIZ DA SILVA Grid Computing e Cloud Computing - Análise dos impactos sociais, ambientais e econômicos da colaboração por meio do compartilhamento de recursos computacionais MESTRADO EM TECNOLOGIAS DA INTELIGÊNCIA E DESIGN DIGITAL São Paulo 2009

2 PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO PUC-SP DIOGO CORTIZ DA SILVA Grid Computing e Cloud Computing - Análise dos impactos sociais, ambientais e econômicos da colaboração por meio do compartilhamento de recursos computacionais MESTRADO EM TECNOLOGIAS DA INTELIGÊNCIA E DESIGN DIGITAL Dissertação apresentada à Banca Examinadora da Pontifícia Universidade Católica de São Paulo, como exigência parcial para obtenção do título de MESTRE em Tecnologias da Inteligência e Design Digital - Inteligência Coletiva e Ambientes Interativos sob a orientação do Prof. Doutor Fernando Antônio de Castro Giorno São Paulo 2009

3 ERRATA Página 96, Onde se lê: pode-se (PODEM-SE) Leia-se podem-se "I - Página 101 Onde se lê: (NECESSÁRIAS) Leia-se: necessárias Página 11O Substituir o Gráfico 11 pelo Gráfico abaixo: Watts I 250 I o 0% 1.0% 20% 30% 40% 50% 60% 70% 80% 90% 1.00%. Cor;>sumo Míni mo (Componentes). Vari ação CPU Página 112 Onde se lê: que um recursos computacional Leia-se: que os recursos computacionais

4 Banca Examinadora

5 AGRADECIMENTOS A Deus, por guiar meus passos e me dar a certeza de que os desafios estão presentes em nossas vidas para serem superados. À minha mãe, que me proporcionou com carinho e humildade todas as coisas necessárias para que eu pudesse alcançar os objetivos da minha vida. Ao meu pai, que sempre acreditou no meu potencial e me ensinou que a honestidade é a chave para uma vida em paz. Ao meu irmão Denis, que de forma peculiar me incentivou a concluir esse mestrado. Aos meus avós, que sempre me apoiaram em todas as decisões da minha vida com carinho incondicional. Ao meu padrinho Ilson, pelos ensinamentos fundamentais ao longo da minha juventude. À minha namorada Fernanda, pelo amor, carinho, compreensão e conselhos na minha vida. À Maria Helena, pela dedicação todas as vezes que foram necessárias revisões dessa dissertação. Ao José, pela sua disposição em ajudar sempre que necessário. À Daniela, pelas idéias compartilhadas. Ao Marcus Vinicius, pela ajuda na etapa inicial dessa conquista. Ao Luiz, Jefferson, Mark e demais companheiros de trabalho que tornaram essa tarefa possível. Ao orientador Prof. Fernando Giorno, pela dedicação, ajuda e ensinamentos durante a realização desse trabalho.

6 Conheça todas as teorias, domine todas as técnicas, mas ao tocar uma alma humana, seja apenas outra alma humana. Carl Gustav Jung

7 RESUMO SILVA, Diogo Cortiz. Grid Computing e Cloud Computing - Análise dos impactos sociais, econômicos e ambientais da colaboração por meio do compartilhamento de recursos f. Dissertação (Mestrado em Tecnologias da Inteligência e Design Digital) Pontifícia Universidade Católica de São Paulo, São Paulo, Esta dissertação discute o excesso de recursos computacionais disponíveis mundialmente com capacidade de processamento excedente e também debate como o emprego dos conceitos de compartilhamento e colaboração influenciam a integração desses dispositivos para constituir um ambiente econômico e com alta capacidade de processamento. Atualmente, é possível encontrar uma grande quantidade de computadores pessoais, servidores, entre outros dispositivos, que apresentam elevados níveis de ociosidade. Estes poderiam ser utilizados para outra finalidade, haja vista pesquisas científicas, projetos colaborativos e programas de inclusão digital carentes de recursos para atingirem seus objetivos. A tecnologia de Grid Computing, também chamada de Computação em Grade, foi concebida como uma alternativa para integrar recursos distribuídos geograficamente e pertencentes a diferentes domínios, habilitando um ambiente computacional abrangente e descentralizado. O objetivo desta dissertação é analisar como essa tecnologia, baseada no conceito de colaboração, pode gerar benefícios no contexto social, ambiental e econômico. No âmbito social, Grid Computing estimula o trabalho colaborativo e o compartilhamento de recursos computacionais e aplicacões, além de prover funcionalidades que auxiliam na transparência de dados entre diversos domínios. Essas características também são importantes para a inclusão científica. O primeiro Estudo de Caso aborda a importância de Grid Computing para o projeto científico do Superacelerador de Partículas (LHC). No contexto ambiental, essa tecnologia também apresenta características para tornar os recursos computacionais mais eficientes em relação ao consumo de energia através do aumento do uso de sua capacidade computacional. O segundo Estudo de Caso aborda dados em relação à quantidade de máquinas conectadas à Internet e como uma aplicação de Grid Computing, no modelo de Computação Voluntária, pode tornálas mais produtivas e, consequentemente, mais eficientes no consumo de recursos energéticos. Já no contexto econômico, é de importância destacar a sinergia existente entre Grid Computing e Cloud Computing, as suas vantagens financeiras e a geração de novos modelos de negócios através da comercialização de plataformas e softwares como serviços na Internet, e não mais como produtos. O terceiro Estudo de Caso aborda um modelo de Cloud Computing que disponibiliza recursos computacionais em forma de serviços, permitindo que empresas e pessoas físicas possam contratar um ambiente computacional de rápido provisionamento, sem a necessidade de adquirir equipamentos e investir em projetos de implementação. Por fim, ambas as tecnologias são apontadas como grandes tendências para os próximos anos, as quais influenciarão a geração de novos modelos de softwares, plataformas e serviços voltados à Internet. Palavras-chave: grid computing, cloud computing, colaboração, compartilhamento, Internet

8 ABSTRACT SILVA, Diogo Cortiz. Grid Computing and Cloud Computing Analysis of the social, environmental and economic impacts of the collaboration through the resources sharing f. Dissertação (Mestrado em Tecnologias da Inteligência e Design Digital) Pontifícia Universidade Católica de São Paulo, São Paulo, This research debates the excess of worldwide available computational resources with exceeded processing capacity and also how the utilization of the sharing and collaboration concepts influence the integration of those devices to constitute an economic environment with high processing capacity. Currently, it is possible to find a great amount of personal computers, servers and others devices that show high level of idleness, while they could be being used for another purpose, once there are many scientific researches, collaborative projects and digital inclusion programs that are short of resources to reach theirs objectives. The Grid Computing technology was conceived as an alternative to integrate geographically distributed resources pertaining to different domains, enabling a decentralized computational environment. The main objective of this research is to analyze how this technology can generate benefits to the social, environment and economic contexts. In the social approach, Grid Computing stimulates the collaboration and the sharing of computational resources and applications, as well as providing features that are very useful for data transparency between many domains. Those characteristics are also important for the scientific inclusion. The first Case Study approaches the importance of Grid Computing for the collaborative tasks found in the scientific project of the Large Hadron Collider (LHC), which allowed many research institutions and universities around the world to build a shared computational environment of large scale for processing the data generated by LHC. In the environment context, this technology also presents some characteristics to make the computational resources more energy efficient increasing the use of its computational capacities. The second Case Study analyzes the data related to the amount of personal computers connected in the Internet and how to implement Grid Computing based on the Volunteer Computing model to make those computers more productive with no relevant impact in the energy consumption. This research also highlights the synergy between Grid Computing and Cloud Computing, its financial advantages and the generation of new business models based on the commercialization of platform and software as a service in the Internet. The third Case Study analyzes a Cloud Computing model that delivers computational resources (such as a whole server) as a service, enabling a scenario where companies and people could contract a computational environment with a quick provisioning with no need to purchase equipments and to invest in implementation projects. Finally, it is possible to appoint both technologies as relevant trends for the coming years, which can be an influence to generate new software models, platforms and services focused in the Internet. Keywords: Grid Computing, Cloud Computing, collaboration, Internet

9 LISTA DE ACRÔNIMOS TI Tecnologia da Informação EELA E-science grid facility for Europe and Latin America EGEE Enabling Grids for E-sciencE SDK Software Development Kit API Application Programming Interface TCP Transmission Control Protocol IP Internet Protocol OV Organização Virtual OGSA Open Grid Services Architecture SOAP Simple Object Access Protocol XML Extensible Markup Langauge OGF Open Grid Forum CPU Central Processing Unit RAM Random Access Memory GNU GNU s Not Unix TCO Total Cost Ownership GPL General Public License SOA Service-Oriented Architecture SaaS Software as a Service UDDI Universal Description, Discovery and Integration QoS Quality of Service

10 LISTA DE FIGURAS Figura 1 Arquitetura dos Sistemas Distribuídos (TANENBAUM; STEEN, 2002)...40 Figura 2 - Ambiente de Organizações Virtuais (FOSTER; KESSELMAN; TUECKE, 2001)...47 Figura 3 Arquitetura em Camadas (FOSTER; KESSELMAN; TUECKE, 2001)...49 Figura 4 - Interações entre os Componentes (JACOB et al., 2008)...54 Figura 5 O Projeto do Superacelerador de Partículas (LHC, 2009)...85 Figura 6 Cloud Computing: sinergia entre conceitos e tecnologias Figura 7 - Matriz taxonômica de Cloud Computing...123

11 LISTA DE TABELAS Tabela 1 Sítios de computação da segunda camada Tier-1 (WLCG, 2009)...88 Tabela 2 Projeção da quantidade total de recursos...89 Tabela 3 Organizações Virtuais filiadas ao LHC (WLCG, 2009)...93 Tabela 4 Penetração de acesso a Internet por regiões (IWS, 2009) Tabela 5 Total de computadores pessoais no mundo (ALMANAC, 2009) Tabela 6 Cenário consumo de energia com Grid Computing Tabela 7 Sistemas Operacionais disponíveis no Amazon EC2 (AMAZON, 2009) Tabela 8 Softwares disponíveis no Amazon EC2 (AMAZON, 2009) Tabela 9 Preços de instâncias On-demand do Amazon EC2 (AMAZON, 2009) Tabela 10 Preço de transferência de dados na Internet através do Amazon EC2 (AMAZON, 2009)...131

12 LISTA DE GRÁFICOS Gráfico 1 Investimento no WLCG até o ano de Gráfico 2 Projeção da quantidade de Jobs...89 Gráfico 3 Projeção de recursos de CPU por camada...90 Gráfico 4 Pojeção de recursos de armazenamento em disco por camada...91 Gráfico 5 Projeção de recursos de armazenamento em fita por camada...92 Gráfico 6 Total de Usuário conectado à Internet por região (IWS,2009) Gráfico 7 Local de acesso à Internet no Brasil (CETIC, 2009) Gráfico 8 Consumo de energia por recursos computacionais (SCHMID, 2005) Gráfico 9 Utilização de CPU em notebook com sistema operacional Linux Gráfico 10 Utilização de CPU em desktop com sistema operacional Windows Gráfico 11 Consumo de energia em relação a utilização de CPU...110

13 SUMÁRIO 1. Introdução Motivação Objetivos Contribuições Método de Pesquisa Organização do trabalho Fundamentação teórica As tecnologias da inteligência Redes sociais Comunidades virtuais nas redes sociais Riquezas das redes Compartilhamento e produção entre pares Inteligência nas redes Sistemas distribuídos Histórico Arquitetura Características Grid Computing Histórico Definição Organizações Virtuais Arquitetura Componentes Tipos Computação Voluntária A Importância dos padrões Principais sistemas Principais projetos Estado da arte em compartilhamento e trabalhos colaborativos nos ambientes das redes de comunicação A Colaboração e a interação na Web Análise do artigo A confiança em repositórios colaborativos de informação Análise do artigo A emergência do compartilhamento como modalidade de produção econômica Análise do artigo Análise de Grid Computing...74

14 4.1 Contexto social Trabalho colaborativo Inclusão científica Estudo de Caso Worldwide LHC Computing Grid Visão geral do LHC Coleta de Dados Análise Resultados e contribuições Contexto Ambiental Estudo de Caso Computação Voluntária como uma alternativa de tornar o consumo de energia mais eficiente Coleta de Dados Análise Resultados e contribuições Contexto Econômico Cloud Computing Infra-estrutura Grid Computing e virtualização Serviços tecnológicos Consumidores e Negócios: Market-Oriented Cloud Computing Tipos de serviço e níveis de abrangência Tipos de serviços Níveis de abrangência Estudo de Caso Open Utility Cloud Computing Coleta de dados Análise Resultados e contribuições Considerações finais Tendências e trabalhos futuros REFERÊNCIAS BIBLIOGRÁFICAS WEBGRAFIA...142

15 13 1. Introdução 1.1 Motivação A evolução da tecnologia fortaleceu a concepção de dispositivos com alto poder de processamento. É possível encontrar no mercado recursos computacionais com processadores de última geração capazes de processar grandes quantidades de informações que no passado só poderiam ser processadas por supercomputadores ou computadores paralelos. Foster (2002a, p.42) intensifica esse cenário com a seguinte afirmação: Um computador pessoal em 2001 é tão rápido quanto um supercomputador em 1990 [...]. Computadores pessoais possuem agora mais de 100 GB de espaço em disco A mesma quantidade de um centro de supercomputadores em Porém, é notório perceber que as capacidades de processamentos desses recursos computacionais muitas vezes não são utilizadas completamente, existindo dispositivos com capacidade excedente. É possível citar os diversos motivos que influenciam esse cenário, mas destaca-se na maioria das vezes a execução de atividades que não exigem alto poder de processamento, como a utilização de aplicações simples, navegação na Internet, entre outras. Essas características mostra que, em muitos casos, as aplicações não requerem alta capacidade de processamento; porém, isso não significa que a tecnologia de software não evoluiu, mas aponta que a indústria de hardware teve um gigantesco salto na produção de recursos computacionais, produzindo máquinas cada vez mais potentes. Os servidores muitas vezes são responsáveis pela execução de uma aplicação específica para a disponibilização de um serviço, enquanto os computadores pessoais são utilizados pelos usuários para tarefas geralmente utilitárias, como uso de aplicativos de escritório, aplicações pessoais e navegação na Internet, entre outras. Em ambos os equipamentos é possível encontrar capacidade de processamento excedente e ociosidade. No caso dos servidores, geralmente as empresas ou as instituições responsáveis pelo gerenciamento dos recursos optam pela abundância de equipamentos para fins de balanceamento de carga e alta-disponibilidade, visando assim a garantia de continuidade do processo produtivo. Entretanto, essas práticas podem acarretar em uma grande quantidade de máquinas com pouca utilização ao invés de uma quantidade menor de

16 14 recursos com utilização balanceada. Os computadores pessoais também possuem recursos computacionais, como processadores e memória, sem utilização total por parte do usuário, mantendo-se assim máquinas ociosas conectadas à Internet. Nesse trabalho, serão abordados os impactos da colaboração através do compartilhamento de recursos computacionais para a constituição de um ambiente mais produtivo e menos ocioso. O estudo baseia-se em três vertentes para a análise das vantagens da tecnologia de Grid Computing e também Cloud Computing: Impacto Social: aborda-se a influência do compartilhamento de recursos computacionais para a construção de um ambiente de computação compartilhado e de larga escala, o qual pode ser capaz de servir diferentes instituições, organizações e pessoas ao redor do mundo. Esse ambiente compartilhado também é importante para transparência de informação, possibilitada devido a arquitetura descentralizada de Grid Computing. Impacto Ambiental: aborda-se os benefícios de Grid Computing através do uso da capacidade ociosa de recursos computacionais, situação que os tornam mais eficientes em relação ao consumo de energia. Também são considerados projetos científicos com foco no meio-ambiente que utilizam uma plataforma de Grid Computing para o processamento de seus dados. Impacto Econômico: o ambiente das redes de comunicação proporciona um novo modelo econômico baseado no compartilhamento de recursos e também no trabalhos colaborativos. As vantagens financeiras e os novos modelos de negócios gerados por Grid Computing e Cloud Computing são tendências que já podem ser observadas. 1.2 Objetivos O objetivo desse trabalho é analisar o impacto da tecnologia de Grid Computing na sociedade e seus benefícios em relação aos contextos social, ambiental e econômico. Analisa-

17 15 se também a sinergia entre Grid Computing e Cloud Computing, os seus novos modelos de negócios e tendências. 1.3 Contribuições Espera-se com esse trabalho apresentar os benefícios da colaboração através do compartilhamento de recursos computacionais, incentivando a adoção desse conceito por empresas, instituições e usuários finais de dispositivos computacionais. 1.4 Método de Pesquisa O método de pesquisa utilizado é composto do levantamento bibliográfico para o estudo da influência das tecnologias para a sociedade, dos novos modelos produtivos gerados pela colaboração e compartilhamento de recursos, e da tecnologia de Grid Computing, seu conceito, sua arquitetura e seus principais projetos. Posteriormente, são levantados os trabalhos relacionados ao tema da pesquisa para a formulação do Estado da Arte em compartilhamento de recursos e trabalhos colaborativos nas redes de comunicação. Em seguida, são analisadas as vantagens de Grid Computing e como essa tecnologia gera benefícios nos contextos sociais, ambientais e econômicos. Também levanta-se dados referente a Cloud Computing e como tal conceito pode ser empregado em conjunto com a tecnologia de Grid Computing. A técnica de Estudo de Caso é aplicada com o objetivo de analisar uma situação concreta e reforçar a dissertação de como a Computação em Grade pode ser vantajosa para o compartilhamento de recursos, trabalhos colaborativos, utilização otimizada de recursos energéticos e também para a economia financeira. Yin (2002) afirma que a técnica de Estudo de Caso é a estratégia mais indicada quando as questões como ou "por que" estão presentes, e quando o foco é no fenômeno contemporâneo entre alguns contextos na vida real. Serão aplicados, ao todo nesta pesquisa, três Estudos de Caso, sendo um relevante a cada vertente de estudo (contexto social, ambiental e econômico). Mais detalhadamente, as seguintes atividades compõem om método de pesquisa. 1. Levantamento Bibliográfico: a pesquisa inicia-se com o levantamento bibliográfico

18 16 relativo ao tema para fomentar a motivação e o objetivo do trabalho, servindo como embasamento teórico no desenvolvimento da pesquisa. 2. Estudo das Tecnologias da Inteligência: estudo dos impactos das novas tecnologias no processo de constituição do ser humano. Análise das interações entre os indivíduos e as novas formas de conhecer possibilitadas pelas tecnologias da inteligência. 3. Análise dos Benefícios gerados pelas Redes de Comunicação: análise das características das redes de comunicação que possibilitaram o surgimento de uma nova economia informacional baseada em compartilhamento de recursos e organização descentralizada. 4. Estudo do conceito de Compartilhamento e Trabalhos Colaborativos: estudo dos fundamentos do compartilhamento de recursos nas redes de comunicação, trabalho colaborativo e produção entre pares. 5. Estudo sobre a Tecnologia de Grid Computing: estudo da tecnologia de Grid Computing, o seu surgimento, a sua arquitetura e seus benefícios através do modelo de colaboração e compartilhamento. 6. Levantamento sobre trabalhos relacionados: levantamento e análise de projetos de pesquisas e trabalhos científicos relacionados ao tema do trabalho. 7. Análise do impacto de Grid Computing no contexto Social: discorre-se nesta atividade como a tecnologia de Grid Computing, através de sua arquitetura baseada na descentralização, gera benefícios para a sociedade em relação ao compartilhamento de recursos e trabalhos colaborativos. Um Estudo de Caso é aplicado com o objetivo de analisar uma situação concreta e reforçar a dissertação sobre o impacto positivo da Computação em Grade no contexto social. 8. Análise do impacto de Grid Computing no contexto Ambiental: discorre-se nesta atividade como a tecnologia de Grid Computing cria novas possibilidades para tornar

19 17 os recursos computacionais mais eficientes em relação ao consumo de energia. Assim como na atividade sete, um Estudo de Caso é aplicado para apoiar a dissertação sobre o impacto positivo de Grid Computing no contexto ambiental. 9. Análise do impacto de Grid Computing e Cloud Computing no contexto Econômico: discorre-se nessa atividade a sinergia entre ambas as tecnologias, as suas influências para economia financeira e também as possibilidades de geração de novos negócios. Assim como nas atividades sete e oito, um Estudo de Caso é aplicado em uma situação concreta para fomentar a dissertação sobre o impacto de Cloud Computing no contexto econômico. 10. Fechamento do trabalho: conclusão da pesquisa e proposta de trabalhos futuros. 1.5 Organização do trabalho No primeiro capítulo dessa pesquisa, Introdução, descreve-se a problemática, a motivação e os objetivos que serão discutidos nesse trabalho. Apresentam-se também as contribuições e a metodologia de pesquisa para alcançar os objetivos especificados. No segundo capítulo, Fundamentação Teórica, apresenta-se o conceito das tecnologias da inteligência e suas influências na constituição do ser humano. Destaca-se o poder das redes digitais com a concepção de uma nova economia informacional baseada em compartilhamento e trabalho colaborativo. Apresenta-se também, nesse capítulo, a tecnologia de Grid Computing, a suas origens, arquiteturas e principais características. No terceiro capítulo, Estado da Arte em Trabalhos Coletivos e Colaboração nas Redes Digitais, são revistos os projetos de pesquisas e trabalhos científicos relacionados ao tema do trabalho. No quarto capítulo, Análise dos Benefícios de Grid Computing, apresenta-se uma análise do impacto da tecnologia de Computação em Grade para os projetos científicos, trabalhos colaborativos e o meio-ambiente. Também são abordadas as vantagens financeiras e os novos modelos de negócios gerados por Cloud Computing. A técnica de Estudo de Caso é aplicada para fomentar a dissertação de como a tecnologia de Computação em Grade é vantajosa para os contextos social, ambiental e econômico.

20 No quinto capítulo são apresentadas as conclusões do presente trabalho, suas contribuições e trabalhos futuros. 18

21 19 2. Fundamentação teórica Neste capítulo serão estudados os fundamentos da dissertação. Inicialmente, discorrerse-á sobre as influências da tecnologia para a sociedade e como isso alterou a forma de compartilhamento de informações através do surgimento da Internet, ligando indivíduos separados geograficamente e modificando a interação entre as pessoas com a concepção das redes sociais e das comunidades virtuais. Em seguida, serão destacados os novos modelos de produção gerados pelas novas tecnologias e seus impactos para a concepção de novos conteúdos que são capazes de abranger meios alternativos e meios comerciais de comunicação. Posteriormente, serão expostos o conceito, arquitetura, principais sistemas e projetos de Grid Computing, uma tecnologia de sistemas distribuídos capaz de favorecer o compartilhamento de informações e novas formas de interações entre indivíduos conectados ao mesmo ambiente. 2.1 As tecnologias da inteligência As tecnologias são influentes na constituição da cultura das pessoas e são capazes de moldar a inteligência de grupos. Isso é possível, segundo Levy (1990), pois o ser humano possui algumas funções cognitivas, como forma de conhecer e pensar, que são fortemente influenciadas pela cultura na qual está inserido, modelo denominado transcendental histórico. A afirmação abaixo enaltece a importância das tecnologias e suas influências na constituição do modo de pensar dos seres humanos: Novas maneiras de pensar e conviver estão sendo elaboradas no mundo das telecomunicações e da informática. As relações entre os homens, o trabalho, a própria inteligência dependem, na verdade, da metamorfose incessante de dispositivos de todos os tipos (LEVY, 1990, p.7). As tecnologias tornam-se partes integrantes do transcendental histórico podendo influenciar o processo de constituição do ser humano. Levy (1990) exemplifica esse conceito afirmando que as concepções de tempo e espaço que se tem hoje não são resultados apenas de idéias sobre tempo e espaço, mas necessitam de um agenciamento técnico para existirem, como relógios e procedimentos de cartografia, evidenciando assim a importância das

22 20 tecnologias para o processo de desenvolvimento humano e social. Atualmente, é possível destacar uma maior dependência dos indivíduos da sociedade em relação às tecnologias. Os usuários necessitam estar em constante contato com as tecnologias que os auxiliam com suas tarefas, ditando um tempo mais veloz e produtivo. É possível destacar assim que as tecnologias já fazem parte da constituição dos sujeitos, sendo um fator influente para a transformação da estrutura social, principalmente nos meios de comunicação e nas formas de adquirir, armazenar e compartilhar conhecimento. A concepção das tecnologias influencia o modo de conhecer dos indivíduos, que antes era direcionado por teorias e agora passa a ser constituído por simulações e modelos que não são possíveis de serem lidos e interpretados, como a forma de textos tradicionais, mas que geralmente são explorados de uma maneira interativa. O usuário tem a possibilidade de alterar alguns parâmetros do modelo para obter o resultado sobre a forma de causa e efeito, adquirindo conhecimento por simulação, característica que não se assemelha nem com o conhecimento teórico nem com a experiência prática. Os benefícios do conhecimento por simulação são citados por Levy (1990, p.122): O conhecimento por simulação, menos absoluto que o conhecimento teórico, mais operatório, mais ligado às circunstâncias particulares de seu uso, junta-se assim ao ritmo sociotécnico específico das redes informatizadas: o tempo real. A simulação por computador permite que uma pessoa explore modelos mais complexos e em maior número do que se estivesse reduzido aos recursos de sua imagística mental e de sua memória de curto prazo, mesmo se reforçadas por este auxiliar, por demais estático, que é o papel. É notório que o surgimento das tecnologias modificou o modo de adquirir conhecimento dos indivíduos atribuindo novas possibilidades a sua cultura. Levy (1990) dividiu a história da comunicação em três tempos: a oralidade primária, a escrita e a informática. Na oralidade primária, destacavam-se as comunidades onde a técnica de comunicação era principalmente a linguagem oral, sendo assim, todo o saber era transmitido por meio desse recurso. A memória humana e a fala eram os únicos meios de que a sociedade dispunha para o armazenamento e a transmissão de conhecimento para as próximas gerações, perdendo-se assim, conhecimento valioso durante o passar dos tempos. A escrita foi uma das grandes revoluções na área da comunicação interpessoal, pois

23 21 possibilitou separar em diferentes contextos o emissor e o receptor da mensagem. A escrita permitiu que o armazenamento do conhecimento fosse prolongado e que o receptor pudesse usufruir de uma informação muito tempo após a sua concepção. A informática é responsável pela concepção das tecnologias da inteligência que disponibilizam serviços que auxiliam a comunicação e a forma de obter conhecimento entre os seres humanos. O modelo de conhecimento por simulação exalta a utilização das tecnologias para a exteriorização das informações, atribuindo a necessidade de armazenamento de dados em dispositivos computacionais e a disponibilização dos mesmos para os usuários quando necessário. Essa situação é fortalecida pelo conceito de inteligência conectiva que será abordada mais a frente nesta dissertação. As tecnologias de comunicação também permitiram que indivíduos dispersos geograficamente pudessem agrupar-se em um ambiente para trocarem informações, debaterem sobre um assunto e trabalharem de forma coletiva por um objetivo em comum, influenciando a formação de redes sociais na Internet. 2.2 Redes sociais Uma rede social é definida como um conjunto de dois principais elementos: os atores (os quais podem ser pessoas, instituições, etc.) e as suas conexões (interações ou laços sociais). A rede social tem foco na estrutura social, onde os indivíduos (atores) não devem ser analisados individualmente, sem que as suas conexões não sejam levadas em consideração. Uma das características mais ricas das redes sociais está justamente na habilidade de poder estudar a relação e a interação entre os indivíduos (RECUERO, 2006). Esse é um conceito que está sendo estudado há muito tempo, porém com o avanço das redes de comunicação, novas pesquisas surgiram com o foco em redes sociais suportadas pelos ambientes de comunicação mediada pelo computador, ou seja, como a Internet possibilitou novas formas de relacionamentos entre indivíduos separados geograficamente. Wellman et al. (1996) citam que quando os computadores interligam as pessoas, assim como as máquinas, eles tornam-se redes sociais. O autor parte do pressuposto que computadores conectam pessoas, e por esta razão podem ser estudados como redes sociais: A análise de redes sociais concebe a estrutura como um padrão de organização desses membros da rede e suas relações. Os analistas de redes sociais trabalham descrevendo os padrões latentes das estruturas sociais,

24 22 explicando o impacto destas estruturas em outras variáveis e levando-as em conta no estudo das medidas da estruturas sociais (WELLMAN, 1997). O conceito de redes sociais na Internet foi impulsionado quando a US Defense Departament's Advanced Projects Research Agency desenvolveu a ARPANET com o objetivo de interligar as redes de computadores das grandes universidades. Desde os anos 80, os computadores pessoais conectaram-se com alguns centros de comunicações, os quais também expandiram suas interligações com outros centros, tornando a ARPANET a rede das redes, conhecida posteriormente como Internet. Wellman et al. (1996) destacam que a Interntet foi a base para o surgimento da comunicação mediada pelo computador (computer-mediated communication), permitindo que pessoas de diferentes lugares e com diferentes fusos horários trocassem informações, seja em uma forma de comunicação síncrona ou assíncrona. Essa situação também é importante para tornar os laços sociais menos fortes, mais fluidos e amplos, pois a relação das pessoas não fica restrita somente aos seus lugares de residência e trabalho, como encontrada antigamente nos pequenos vilarejos. Os indivíduos podem agora, através da comunicação mediada pelo computador, relacionar-se com outras pessoas com quem compartilham certos interesses, mesmo que estes não estejam na mesma localidade. Os laços sociais são fatores importantes em uma rede social, pois são eles que definem a efetiva conexão entre os indivíduos envolvidos em uma interação social. Wellman, Chen e Weizhen (2001) definem os laços sociais: Laços consistem em uma ou mais relações específicas, tais como proximidade, contato frequente, fluxos de informação, conflito ou suporte emocional. A interconexão destes laços canaliza recursos para localizações específicas na estrutura dos sistemas sociais. Os padrões destas relações a estrutura da rede social organiza os sistemas de troca, controle, dependência, cooperação e conflito. Esses laços sociais possuem dois tipos: fortes e fracos. A força de um laço pode estar associada diretamente com a quantidade de tempo, intensidade emocional e intimidade que caracterizam um laço. Os laços fortes são aqueles caracterizados pela intimidade, proximidade e pela intencionalidade de estabelecer conexão entre dois indivíduos. Já os laços fracos são caracterizados por conexões que não remetem características de proximidade e intimidade. Wellman et al. (1996) citam que muitos dos laços online, podem compreender características de laços fortes, principalmente por facilitar contatos frequentes, recíprocos e

25 23 com finalidades de companheirismo. É comum encontrar pessoas que possuem amigos na Internet, com quem dividem segredos, recebem apoio emocional e conselhos, mesmo que nunca tenham se encontrado pessoalmente. Essa é uma característica evidente de laços sociais fortes na Internet. Wellman et al. (1996) fortalecem a idéia que a comunicação mediada pelo computador permite uma relação afetiva entre os seus usuários, citando que há frequentemente uma troca de suporte emocional através da Internet. Essa situação acontece, segundo o autor, pelo fato dos usuários passarem muito tempo em frente aos computadores, influenciando a discussão de seus problemas e dificuldades de forma online. Em contra partida, Granovetter (1973, apud RECUERO, 2006) afirma que os laços fracos também são importantes para ajudar a fortalecer a estrutura das redes sociais. Isso acontece pelo fato dos laços fracos conectarem os grupos constituídos de laços fortes entre suas conexões. A Internet permite que pessoas ou grupos sociais que não possuem intimidades possam se relacionar, criando um laço social fraco, para trocar informações e trabalhar em conjunto visando alcançar um determinado objetivo. Com o advento da comunicação mediada pelo computador, e principalmente pelo surgimento da Web, as pessoas não limitam os seus relacionamentos apenas com os seus familiares, companheiros de trabalho e seus vizinhos. Pelo contrário, os indivíduos que possuem interesse por determinado assunto podem deixar suas conexões fluírem para a criação de laços sociais (mesmo que forem laços fracos) com pessoas que tem os mesmos interesses que o seus, não importando a localização geográfica, podendo ser residentes de cidades, estados e até países diferentes. Os estudos das redes sociais foram retomados principalmente após o surgimento da Web, situação onde os indivíduos começaram a expandir os seus laços de relacionamentos de forma exponencial. Entretanto, a forma de interação no ciberespaço não é alvo de estudos somente das redes sociais. Existe um conceito denominado comunidades virtuais que é bastante abordado por diversos pesquisadores. Na próxima seção, será descrito o conceito de comunidades virtuais e a sua sinergia com as redes sociais Comunidades virtuais nas redes sociais O conceito de comunidades é um grande desafio de definição para as ciências sociais.

26 24 É possível entender como comunidades as aldeias, os grupos étnicos e até mesmo as nações, apesar de o conceito ter sofrido algumas modificações em sua abordagem ao longo do tempo. Baumann (2003) é uma das referências para o conceito de comunidades, tendo abordado em seu livro a relação das comunidades e a segurança no mundo atual. O autor supõe que há uma oposição entre liberdade e comunidade no período contemporâneo: Há um preço a pagar pelo privilégio de 'viver em comunidade'. O preço é pago em forma de liberdade, também chamada 'autonomia', 'direito à autoafirmação' e à 'identidade'. Qualquer que seja a escolha, ganha-se alguma coisa e perde-se outra. Não ter comunidade significa não ter proteção; alcançar a comunidade, se isto ocorrer, poderá em breve significar perder a liberdade (BAUMANN, 2003, p.10). A própria definição de Baumann (2003, p.57) fortalece o cenário onde a liberdade é oposta à forma de pertencer a uma comunidade, conforme a seguinte afirmação: Tecida de compromissos de longo prazo, de direitos inalienáveis e obrigações inabaláveis (...) E os compromissos que tornariam ética a comunidade seriam do tipo do 'compartilhamento fraterno', reafirmando o direito de todos a um seguro comunitário contra os erros e desventuras que são os riscos inseparáveis da vida individual. Baumann (2003) fez um estudo da relação das comunidades com a questão da segurança, apontando que a elite da sociedade tenta criar os seus próprios ambientes de interações de forma seletiva, onde somente os eleitos possuem acesso, esquecendo da comunidade pura, que pode oferecer algum tipo de vantagem aos indivíduos, sem importar-se com suas classes sociais. O conceito de comunidade, assim como as redes sociais, também teve uma grande retomada nos seus estudos com o surgimento da comunicação mediada pelo computador. As comunidades virtuais na Web vêm sendo abordadas por muitos autores como um conceito muito próximo às redes sociais. Castells (2003) cita que o termo comunidade virtual surgiu a partir de novas interações sociais, ocasionadas principalmente pela Internet. O autor também destaca que é necessário reestruturar o conceito de comunidade, focando principalmente no seu papel de apoio social, constituída através de grupos esparsos e não restritos a apenas uma localidade. Rheingold (1996) foi um dos principais autores a abordar o conceito de comunidades virtuais, definindo-o como agregações sociais que emergem da rede quando uma quantidade

27 25 suficiente de pessoas permanece em discussões públicas longas o suficiente, com sentimento humano, para formar teias de relações pessoais no ciberespaço. De acordo com essa definição, demonstra-se que os elementos formadores das comunidades virtuais são as discussões públicas; as pessoas que se encontram ou que mantêm contato através da Internet; o tempo e o sentimento, características fáceis de serem observadas nos ambientes de comunicação mediada pelo computador, consequentemente também perceptíveis nas redes sociais. Assim, nota-se uma forte sinergia entre os conceitos de comunidades virtuais e de redes sociais. Esse fator é tão relevante que influenciou Rheingold (2000) a publicar um texto onde repensou sobre o seu conceito de comunidades virtuais e a suas relações com as redes sociais. Wellman (1997) também é outro autor a citar a forte relação entre os conceitos de redes sociais e comunidades virtuais, defendendo que os agrupamentos sociais na Internet teriam a presença de variados tipos de conexão. Seguindo esse raciocínio, o autor prefere chamar os agrupamentos de redes sociais, ao invés de comunidades, devido à variedade de seus laços sociais e sua abrangência geográfica. O conceito de comunidades está fortemente relacionado com um ambiente onde há relações através de laços sociais fortes. Entretanto, a Internet está influenciando o surgimento de novos modelos de interações entre indivíduos, onde os grupos passam a ser constituídos por laços menos fortes e com uma abrangência geograficamente maior, por isso Wellman (1997) prefere chamar tal conceito de rede social. É importante destacar que as redes sociais na Internet correspondem, muitas vezes, a redes sociais na vida concreta, e que a comunicação mediada por computador é uma forma de manter e criar novos laços sociais, os quais não são obrigatoriamente mantidos apenas no ciberespaço. As comunidades virtuais também apresentam características próprias em contraste com as redes sociais. Recuero (2006) cita que o estudo de comunidades virtuais a partir das redes sociais seria o mais apropriado, principalmente por esse último conceito permitir um maior alargamento geográfico dos laços sociais. O autor também defende que a metáfora da rede social é importante por enfatizar a estrutura da rede, local onde a comunidade virtual é encontrada. Assim, pode-se defender a idéia que tanto as redes sociais, quanto as comunidades

28 26 virtuais, mesmo apresentando sinergia nas suas definições, não correspondem simplesmente a um mesmo conceito. Em outras palavras, o grau de proximidade, a intensidade das interações e o compromisso entre os indivíduos são elementos que ajudam a diferenciar o conceito de redes sociais e comunidades virtuais. A rede social torna-se a base dos relacionamentos para a criação de laços sociais entre os indivíduos, muitas vezes de maneira menos intensa e mais dispersa geograficamente. Já as comunidades virtuais emergem a partir de tal cenário de interação, onde indivíduos podem se agrupar de acordo com seus objetivos e interesses em comum, cooperando intensamente entre si para a construção de laços sociais fortes. Apesar desses conceitos apresentarem diferenças, vale ressaltar que ambos são importantes para o surgimento de novas formas de interações e relacionamentos na sociedade, situação que também influenciou o amadurecimento do conceito de colaboração. O conceito de redes sociais é evidenciado nessa dissertação por esta pesquisa ter como objetivo investigar as formas de colaboração e compartilhamento entre os indivíduos, situação que caracteriza laços sociais mais fluídos e menos fortes, e não interação de intimidade e suporte emocional, como encontrados em comunidades virtuais. A tecnologia de Grid Computing, conforme será discorrida mais a frente nesta dissertação, também favorece a criação de novas formas de redes sociais em seu ambiente, permitindo que indivíduos possam interagir, criando laço sociais fracos, através do compartilhamento de recursos computacionais, dados e aplicativos. As redes sociais têm papéis fundamentais para o surgimento de novos modelos produtivos, principalmente influenciando o compartilhamento e a colaboração entre os indivíduos. As redes sociais também têm uma função importante para facilitar a comunicação e troca de informação, estimulando a colaboração entre indivíduos que não têm laços sociais fortes, mas que compartilham interesse por um mesmo assunto. Na próxima seção será abordado sobre uma revolução que modificou o processo produtivo nas redes digitais. 2.3 Riquezas das redes As redes de comunicação são responsáveis por importantes mudanças na sociedade, desde a criação de novas formas de interações e relacionamento entre as pessoas até o surgimento de novos modelos produtivos de conteúdos, produtos e serviços.

29 27 De acordo com essa situação, Benkler (2006) afirma que a economia informacional está sofrendo importantes saltos sociais na concepção dos seus bens, partindo de um movimento controlado pela indústria privada de informação para uma indústria social, não proprietária e descentralizada. O grande fator responsável por essa mudança foi o surgimento das redes de comunicações construídas com recursos capazes de interligar comunidades distribuídas geograficamente, permitindo assim o aumento da produção nonmarket, ou seja, uma produção informacional e cultural fora do sistema de mercado e organizada de uma maneira descentralizada. Atualmente, o declínio dos preços dos recursos computacionais, dispositivos de comunicações e armazenamento tornou possível a produção informacional e cultural para uma significante fração da população mundial conectada à Internet. Em meados do século dezenove, era necessário um grande investimento de capital físico para a circulação da mídia impressa em larga escala. O surgimento de diversas técnicas como telégrafos, rádios, transmissores de televisão a cabo e computadores de grande porte, como os mainframes, foram necessários para que a informação tivesse um alcance para um público além do limite local do emissor. Como resultado, a produção de informação tornou-se ainda mais privilegiada e restrita para as indústrias informacionais que possuíam recursos para investimento nessas tecnologias. Entretanto, o surgimento do ambiente de comunicação possibilitado pelas redes de computadores mudou esse cenário, pois permitiu que o material necessário para a produção de informação estivesse disponível para um grande número de indivíduos conectados na rede. Segundo Benkler (2006), a remoção das barreiras físicas na efetiva produção de informação transformou a criatividade humana e os fatores estruturais da tradicional economia da informação, concebendo um novo ambiente denominado economia informacional conectada. Na economia informacional conectada, o capital necessário para produção de informação está distribuído na sociedade através dos computadores pessoais e também das redes sociais, enfatizando a questão de que simples usuários conectados na Internet possam desenvolver quaisquer atividades que envolvam a criatividade humana através de seus computadores pessoais, sozinhos ou em cooperação com outras pessoas. O resultado desse cenário é o florescimento de uma produção informacional e cultural baseada no ambiente de redes sociais, o qual pode ser aplicado para o surgimento de diversos

30 28 recursos que não são tratados como bem de propriedade exclusiva, mas sim como recursos abertos e compartilhados. Jenkins (2006) cita que a convergência das mídias também tem papel fundamental para que simples consumidores, posteriormente chamados de prossumidores, comecem a gerar conteúdos que podem abranger as mídias tradicionais e também as atuais mídias participativas e coletivas. Como exemplo, o mesmo autor cita o episódio ocorrido em 2001, quando um estudante criou, utilizando o Photoshop1, uma edição do personagem Beto da Vila Sésamo interagindo com o terrorista Osama Bin Laden. Essa montagem faz parte de uma brincadeira de internautas denominada Beto é do Mal, que traz o personagem como membro da Ku Kux Klan, ou até mesmo ao lado do Hitler. Logo após os ataques de 11 de Setembro, um editor de Bangladesh fez pesquisas na Internet para coletar imagens de Osama Bin Laden com o objetivo de criar cartazes antiamericanos. O editor provavelmente não conhecendo o personagem Beto e julgado a imagem de Bin Laden como um bom retrato, utilizou tal conteúdo para a confecção de cartazes que, pouco tempo depois acabou espalhado por todo o Oriente Médio em manifestações. Repórteres da CNN registraram imagens de protestos contra os Estados Unidos da América onde estavam sendo utilizados cartazes com a imagem de Beto e Osama Bin Laden. Os representantes do Children's Television Workshop, criadores do programa Vila Sésamo, descobriram a imagem da CNN e ameaçaram tomar medidas legais contra o seu uso inapropriado, porém sem direcionar quem seriam os responsáveis por esse abuso - o estudante que criou a imagem, ou os simpatizantes terroristas que a utilizaram em cartazes. O que realmente chama a atenção nesse caso é a convergência entre as mídias em um cenário global. Um jovem estudante fez uma colagem de um personagem de um programa de televisão e a disponibilizou na Internet, o que possibilitou que cidadãos de países do Oriente Médio pudessem utilizar o conteúdo para gerar cartazes antiamericanos durante protestos, os quais foram transmitidos para todo o mundo através de um dos maiores veículos de informação internacional. Esse é um exemplo de conteúdos gerados por prossumidores que podem cruzar por meios comerciais e meios alternativos. É possível destacar que serviços e produtos intangíveis, como os softwares produzidos 1 Photoshop Aplicativo utilizado para edição de imagem.

31 29 por uma coleção de indivíduos organizados muitas vezes pelas redes sociais na Internet, já estão aptos a competir em relação à qualidade com bens gerados por indústrias especializadas e orientadas ao mercado. O Sistema Operacional Linux é um grande exemplo de software desenvolvido colaborativamente por voluntários, sendo capaz de traçar batalhas árduas com grandes empresas desenvolvedoras de software na busca pelo mercado consumidor. O compartilhamento e o trabalho colaborativo são questões extremamente valiosas em um ambiente de interação proporcionado pelas redes sociais, onde usuários de todas as partes do mundo podem se comunicar, trocar informações e trabalhar em conjunto, seja em assuntos relacionados aos seus hobbies, profissionais ou até mesmo em prol da ciência Compartilhamento e produção entre pares A concepção da Internet e o rápido crescimento das redes sociais influenciaram a concepção de um novo meio de produção. A visão existente no fim do século vinte era do poder de produção centralizado nas indústrias com grande capacidade de investimento e não se pensava em um conjunto de indivíduos voluntários trabalhando colaborativamente para a produção de um bem capaz de superar um produto gerado por uma grande indústria. Porém, é exatamente isso que está acontecendo atualmente e um exemplo incontestável é o processo de desenvolvimento de software livre. A emergência dos softwares de código-livre é um fenômeno de sucesso baseado em colaboração através do compartilhamento de recursos e produção entre pares. O sistema operacional GNU/LINUX, o servidor Web Apache, a linguagem de programação Perl, são práticas de sucesso que surgiram apenas da colaboração de voluntários, sem a influência de uma indústria especializada. Os voluntários dificilmente participam de projetos colaborativos por serem influenciados por seus superiores ou por receberem uma oferta em dinheiro, porém dedicam seu trabalho visando retorno a longo prazo, como a divulgação do seu trabalho na sociedade e a prestação de serviços. Benkler (2006) cita que os ambientes das redes digitais possibilitam um novo modelo de organização de produção baseado em algumas características, como a descentralização, a colaboração e a não-proprietariedade. Esse novo processo produtivo evidencia as vantagens do compartilhamento de recursos e resultados com os indivíduos que cooperam sem

32 30 influências de mercados, o que foi chamado de produção entre pares baseada em commons, O termo common significa uma forma particular de estruturar o direito de acesso, uso e controle sobre recursos. A principal característica de common é o fato de nenhuma pessoa ter total e exclusiva autoridade sobre os recursos, mas permitir que sejam utilizados por qualquer indivíduo, entre um número de pessoas, através de regras que possivelmente emergiram das influências dos próprios usuários. Os commons podem ser divididos em quatro tipos baseados em dois parâmetros. O primeiro parâmetro define se o recurso está aberto para qualquer indivíduo ou somente para um grupo definido de pessoas. Os oceanos, o ar, a luz do sol são exemplos de commons abertos para qualquer indivíduo. Os bens imóveis privados, como casas e terrenos, são exemplos de commons abertos somente para um determinado grupo. O segundo parâmetro é baseado no fato de um bem ser regulamentado ou nãoregulamentado. Geralmente, os commons com acessos limitados são governados por algum tipo de regra, enquanto os commons abertos não são regulamentados. A condição de produção entre pares, a qual compartilha semelhantes características com a tecnologia peer-to-peer, caracteriza um conjunto de práticas de produção baseada em commons, onde o sistema produtivo depende da ação individual que é auto-selecionável e descentralizada, ao contrário de uma produção baseada em hierarquia (BENKLER, 2006). Bauwens (2002) também cita, na mesma linha, que o modelo peer-to-peer não deve ser visto somente como uma tecnologia, mas que isso tornou-se um processo de produção, uma maneira de organizar a forma que produtos imateriais são produzidos, distribuídos e consumidos. O ambiente conectado das redes sociais favorece a produção entre pares provendo novos mecanismos que auxiliam os indivíduos distribuídos geograficamente a adotarem estratégias radicalmente descentralizadas de cooperação, ao invés de utilizarem recursos proprietários ou bens baseados nos sistemas de mercado. A economia informacional conectada, influenciada pelo modelo de produção entre pares destaca a importância das informações produzidas de maneira distribuída e colaborativa. Bauwens (2002) afirma que um dos maiores exemplos desse tipo de produção é o software livre. Delanda (2001) cita que os grupos hackers, que muitas vezes se organizam e formam alguma rede social na Internet, são os grandes responsáveis pelo sucesso dos softwares livres. O autor defende que o termo hacker não está relacionado com os vândalos

33 31 digitais (chamados de crackers), mas sim com pessoas que buscam o desenvolvimento dos seus próprios softwares. O autor cita ainda que esses indivíduos não precisam necessariamente possuir o título de bacharel em ciências da computação, mas que a motivação por criar algo que eles julgam útil faz com que eles desenvolvam novos softwares sem a presença de uma imposição profissional ou alguma recompensa econômica. É possível encontrar na Internet diversas redes sociais focadas no desenvolvimento de software livre que agrupam pessoas de diversos países sem que haja alguma empresa por trás ou qualquer mecanismo de mercado presente. Os voluntários que compartilham interesse pelo objetivo de um determinado projeto podem trabalhar de forma colaborativa para desenvolverem uma nova aplicação. É importante destacar que nesse cenário de produção colaborativa entre pares, o compartilhamento é uma característica fundamental, pois permite que todos tenham acesso às mesmas informações e produtos desenvolvidos. Delanda (2001) cita que os dois principais itens responsáveis pelo sucesso do movimento do software livre são: O modelo das licenças (principalmente a GPL2) e o modelo de produção. É perceptível que os dois itens apresentam grande sinergia entre si, principalmente pelo fato das licenças permitirem maior transparência e confiança no processo colaborativo de desenvolvimento de software. Os voluntários muitas vezes participam dos projetos de desenvolvimento de software livre por acreditarem que as licenças ajudam a proteger o intelectual social através do conceito de commons, onde existe a eliminação da exclusiva propriedade sobre um bem. Os commons são encontrados na Internet como um meio de expansão das possibilidades de práticas colaborativas, mobilização comum e compartilhamento de recursos. Os indivíduos tendem a colaborar mais quando eles encontram um bem gerenciado como um common, devido as suas características de liberdade e não exclusividade. O ambiente informacional constituído por redes sociais e influenciado pelos conceitos de colaboração são também importantes para o fortalecimento de novo modelo de inteligência, como é chamado por diversos autores. Isto se dá pelo fato de pessoas de diferentes países, culturas, formações e experiências poderem interagir via Internet para trabalhar em conjunto, compartilhando os seus conhecimentos específicos. 2 General Public License Licença para software livre idealizada por Richard Stallman no final dos anos 80.

34 32 Para exemplificar esse cenário, pode-se pensar em um projeto de desenvolvimento de uma nova aplicação, onde pessoas com diferentes tipos de experiências estão trabalhando em conjunto. Existem indivíduos com conhecimento na linguagem de programação Java, outros com experiência na linguagem C++ e também pessoas que trabalham apenas com gerenciadores de bancos de dados. Todos esses indivíduos podem compartilhar os seus conhecimentos para agregar valor no processo produtivo. O indivíduo que trabalha com a linguagem Java pode ser o responsável pelo desenvolvimento da interface gráfica de uma aplicação, mas pode estar em constante contato com os desenvolvedores em C++ que estão responsáveis pela construção de outra parte do sistema e até mesmo com os administradores dos bancos de dados. Assim, se o desenvolvedor de Java estiver enfrentando alguma dificuldade, ele poderá ser ajudado por pessoas com diferentes experiências e perspectivas do projeto. Na próxima seção serão estudados os novos conceitos de inteligência que emergiram a partir das redes de comunicação e forma impulsionadas por fatores coletivos e de colaboração. 2.4 Inteligência nas redes Diversas pesquisas foram iniciadas com foco na reflexão sobre a dimensão e abrangência do coletivo, estudando de qual forma os indivíduos atuam em grupo, mesmo que eles apresentem características pessoais diferentes (como país de origem, formação, idade, sexo, etc.), e como eles podem agregar valor social para o coletivo do qual fazem parte. As redes sociais na Internet permitem que pessoas pertencentes a distintas culturas e com diferentes perfis possam trocar experiência em um ambiente de comunicação mediada pelo computador, possibilitando que novas formas de inteligência possam ser estimuladas através do compartilhamento e colaboração de cada um dos indivíduos. Levy (1999) define o termo inteligência coletiva como uma inteligência distribuída por toda a parte, coordenada em tempo real, que resulta uma mobilização efetiva das competências. Essa definição constata que na Inteligência Coletiva o conhecimento está espalhado por todos os lugares do mundo, onde cada pessoa pode apresentar um tipo de conhecimento diferente em relação a outros indivíduos, sejam estes inseridos na mesma ou em diferentes culturas. A Internet é um espaço de compartilhamento de informações, um ambiente onde os

35 33 indivíduos submetem seus conhecimentos e expertises individuais para objetivos comuns. Levy (1999) cita também que nenhuma pessoa sabe tudo e que todo o conhecimento reside na humanidade. De acordo com essa afirmação, exalta-se que, através das redes sociais, é possível que as tarefas que as pessoas não tinham conhecimento ou não podiam fazer sozinhas, agora tornam-se possíveis de serem realizadas coletivamente. Na Wikipedia, embora haja alguns mecnismos de controle, todo o conhecimento foi gerado por indivíduos espalhados ao redor do mundo em um formato de voluntariado. Pessoas nascidas em diferentes países, com diferentes idades e formações podem trabalhar em conjunto, adicionando, editando e removendo informações para enriquecer um determinado artigo nessa enciclopédia colaborativa. As mesmas características, conforme já abordado anteriormente, também podem ser facilmente encontradas nos movimentos de desenvolvimento de software livre. A Internet possibilitou que novas formas de ações coletivas fossem capazes de serem realizadas com sucesso. As pessoas conectam-se em um ambiente de comunicação e computação, onde podem executar suas tarefas com ajuda de algum outro indivíduo que reside em um país diferente, criando uma situação de cooperação que nunca tinha sido observada anteriormente. Rheingold (2002) fortalece a idéia que as novas tecnologias, principalmente aquelas que potencializam a mobilidade, como as redes de telefonia móvel e as redes wireless, são de extrema importância para facilitar ações colaborativas através das redes sociais. O autor defende que o acesso às redes modifica a capacidade e a forma das pessoas executarem suas atividades, pois elas passam a ter acesso constante a repositórios de informações e também podem solicitar ajuda para pessoas que não estão presentes no seu espaço físico, mas que são acessíveis através da comunicação mediada por computador. Com base nessas características, Rheingold (2002) definiu Smart Mob (Multidão Esperta), conceito que corresponde a um grupo que se comporta de maneira inteligente ou eficiente em uma rede onde suas conexões crescem exponencialmente, permitindo que as pessoas possam agir de forma conjunta. O autor ainda cita que as pessoas que formam a Smart Mob cooperam através de uma nova forma devido ao fato de utilizarem aparelhos que possuem tanto capacidade de comunicação quanto de computação. Rheingold (2002) cita que uma Smart Mob emerge quando redes sociais utilizam principalmente tecnologias móveis, computação pervasiva e métodos peer-to-peer para

36 34 coordenar uma ação coletiva. O autor exemplifica essa afirmação citando o cenário da queda do presidente das Filipinas, onde os cidadãos filipinos organizados por meio de mensagens de texto via celular (sms3) promoveram manifestações pacíficas que conseguiram tirar do poder o presidente Joseph Estrada. É importante ressaltar que as tecnologias e as redes sociais têm papel fundamental para identificar e mobilizar as pessoas próximas, criando laços extremamente valiosos para que possam atuar em conjunto por um mesmo objetivo, muitas vezes sem importar sua cultura, formação, sexo ou idade. Levy (1999) afirmou que todos os indivíduos na humanidade têm um tipo de conhecimento e que, por esse motivo, nenhuma pessoa deveria ser desprezada. Rheingold (2002) escreveu que as interações entre as pessoas podem transformar uma simples multidão em uma multidão esperta. Por sua vez, Surowiecki (2006), com uma proposta visionária, defende o que ele chama de sabedoria das multidões, um assunto extremamente polêmico, já que a grande maioria das pessoas associa a idéia de multidão com tumulto e desordem. Entretanto, o que o autor mostra é que as decisões tomadas por uma multidão eclética são mais inteligentes do que as opiniões geradas por um pequeno grupo de especialistas. Para defender sua definição, Surowiecki (2006) cita diversos exemplos, podendo ser destacado o caso do desaparecimento do submarino americano Scorpion no Atlântico Norte. Nesta situação, os oficiais da marinha em terra possuíam somente informações do possível local do desaparecimento, o qual correspondia a uma área com raio de 20 milhas em águas que apresentavam variações de profundidade. John Crave, um oficial da marinha naquela época, teve a idéia de levar as informações disponíveis para especialistas das mais diversificadas área do conhecimento, pedindo para que estimassem o possível local onde estaria o submarino Scorpion. Após receber todas as coordenadas dos especialistas, Crave utilizou essas informações em uma fórmula matemática, obtendo um impressionante resultado apontou a localização do submarino com um pequeno erro de 200 metros, o que seria uma tarefa bastante difícil, se fosse trabalhada apenas por especialistas de uma única área de atuação. Entretanto, Surowiecki (2006) menciona que a sabedoria das multidões é fácil de ser observada em várias situações na sociedade, porém são muito difíceis de serem obtidas por terem que obedecer quatro principais características: 3 Short Message Service Serviço de comunicação presente nas redes de telefonia móvel que permite o envio e recebimento de mensagens de texto.

37 35 Diversidade Os indivíduos que compõem a multidão devem ser discrepantes em relação a sua cultura, formação, área de atuação e opinião. O consenso não é uma propriedade valiosa; pelo contrário, nesse modelo a diversidade é o fator que engloba diferentes visões sobre um mesmo assunto, permitindo aproveitar as opiniões de estudiosos, profissionais de áreas afins, para enriquecer a ótica sobre o assunto abordado. É notável que esse modelo gere conteúdos úteis (informações) e inúteis (ruídos), porém destaca-se que a própria multidão tende a anular os ruídos. Independência Os indivíduos devem formular suas opiniões de maneira individual, sem que haja a influência de outros integrantes da multidão, pois esse cenário favorece o surgimento de informações e também diminui os ruídos. Descentralização As opiniões coletivas são mais valiosas e inteligentes quando não há um fator de controle sobre isso, onde os indivíduos possam pensar e emitir suas opiniões de maneira livre e baseando-se apenas em sua cultura e formação. Agregação As opiniões emitidas por todos os indivíduos que compõem a multidão devem ser agregadas para formar uma opinião coletiva, assim como aconteceu na situação do submarino Scorpion. Rheignold (2008), autor que havia publicado anteriormente um texto sobre multidões espertas, aponta que uma multidão esperta não necessariamente é uma multidão sábia, contrapondo alguns pontos de Surowieck (2006). Rheignold (2008) cita que as tecnologias por si só não garantem democracia e qualidade das multidões, mas que possivelmente devem haver algumas regras a serem seguidas para que uma multidão se torne cada vez mais inteligente. O mesmo autor ainda sugere que as pessoas engajadas nesses movimentos tenham consciência que isso é apenas o início e que talvez elas devessem assumir uma posição de liderança para fazer as multidões mais inteligentes, extraindo o bem intelectual mais valioso de cada indivíduo. É importante destacar que o conceito de multidões existe há muito tempo, antes do surgimento das tecnologias, mas são elas que, nos dias atuais, facilitam a comunicação entre

38 36 seus indivíduos. As formas de interações entre os indivíduos foram reformuladas após a concepção da comunicação mediada pelo computador, quando passaram a se comunicar em tempo real sem a necessidade de estarem no mesmo espaço físico e quando começaram a receber ajuda através de respostas e compartilhamento de informação de forma instantânea. Mas não é somente a forma de comunicação síncrona, envio e recebimento de mensagem entre dois ou mais indivíduos em tempo real, que favorece um cenário de inteligência nas redes. A Web é um espaço onde existem muitas informações que foram publicadas por diversas fontes em um determinando tempo no passado que estão disponíveis para serem acessadas a qualquer momento. No período anterior a Internet, as pessoas necessitavam locomover-se até uma biblioteca para ter acesso a uma determinada obra. Se ela quisesse obter alguma informação instantaneamente, a forma mais prática era perguntar para as pessoas ao seu redor, que poderiam não saber as respostas. O advento da Internet reformulou totalmente esse cenário. Hoje em dia, a pessoa tem uma quantidade extremamente alta de informações disponível a partir de dispositivos conectados na Web em qualquer espaço de tempo. Na Web não existe horário de funcionamento. Pelo contrário, tornou-se um grande repositório de informações coletivas aberto 24 horas nos 7 dias da semana, seja através de sites de veículos de comunicação, portais corporativos, blogs pessoais e até mesmo ferramentas wikis É justamente seguindo essa mesma linha de raciocínio que De Kerckhove (1997) define o que ele chama de inteligência conectiva. O autor cita que a Internet é uma espécie de cérebro global composto através da interligação de cérebros individuais. Ele ainda cita, mais profundamente, que a Web é uma extensão de nossas próprias mentes interligadas com recursos das mentes de milhões de indivíduos. As pessoas expandem suas mentes na Internet através de blogs, sites, sistemas wikis, participação em fórum e comunicação em tempo real (instant messaging) De Kerckhove (1997) cita, para fortalecer a sua opinião, que as pessoas buscavam através de reuniões locais, antes da Internet, uma forma para conectarem suas mentes com o objetivo de alcançar certo consentimento mental. Porém, com a comunicação mediada por computador, as pessoas podem fazer isso mesmo estando em diferentes cidades, através do uso de aplicações de comunicação síncrona ou assíncronas. Assim, os indivíduos estão em um ambiente de mentes conectadas, onde existe um

39 37 grande acesso as informações pertencentes a diversas classes e que podem ter sido construídas em qualquer espaço de tempo. Na Web é fácil encontrar notícias extremamente recentes até conteúdos publicados há muitos anos que foram digitalizados e disponibilizados na rede. É possível perceber uma grande sinergia entre inteligência conectiva e inteligência coletiva. Entretanto, De Kerckhove (2009) cita em uma entrevista a diferença entre ambos os conceitos. O autor inicia essa diferenciação da seguinte forma: Pelo pensamento eu compreendo o mundo, pelo espaço o mundo me compreende. Pascal compreendeu bem a diferença entre o eu pensante e a pertinência do ponto no espaço. A nova possibilidade é: eu compreendo o mundo, o mundo me compreende, sem exclusão, juntos. E cada indivíduo que compreende o mundo comigo partilha da minha inteligência, da minha consciência conectiva. É diferente da emergência de uma inteligência coletiva, como a de que fala Pierre Levy (DE KERCKHOVE, 2009). O autor ainda acrescenta que a inteligência conectiva tem aplicações reais e não é apenas uma teoria. Para fortalecer sua afirmação, ele exemplifica que a partir de um notebook, sem importar sua localização, ele pode se conectar com pessoas com quem trabalha e pode executar seu trabalho a distância da mesma maneira como seria se ele estivesse cara a cara com seus companheiros. É interessante notar que os diversos conceitos de inteligência nas redes apresentados até o momento compartilham uma mesma característica: os indivíduos estão cada vez mais interligados com um número maior de conexões e que tendem a aumentar com o passar do tempo. No presente momento é possível encontrar diversas pessoas que recorrem a Web como fonte de informação, seja para uma pesquisa acadêmica, para resolver um problema no trabalho ou para esclarecer uma dúvida pessoal relacionada a assuntos de conhecimento geral. Entretanto, destaca-se que o conceito de inteligência conectiva é o que melhor relaciona-se com o tema do trabalho. Conforme foi definido anteriormente, pode-se pensar a inteligência conectiva como a extensão da mente humana, a qual está interligada com a mente de inúmeras pessoas. Adicionalmente, pode-se exaltar que as tecnologias apresentam incrível capacidade de processamento e de armazenamento, tornando-se mais eficientes para determinadas tarefas em conjunto. A tecnologia de Grid Computing compartilha, similarmente a Web, características com o modelo de inteligência conectiva. Os ambientes de Grid Computing são espaços com alta capacidade de processamento constituídos com recursos de diversas entidades e indivíduos,

40 38 permitindo assim que eles fiquem conectados para troca de informações, execução de aplicações em conjunto e compartilhamento de resultados. Seguindo o modelo de inteligência conectiva, pode-se pensar um ambiente de Grid Computing como um cérebro global (aglomerado de recursos computacionais, aplicações e dados) composto por inúmeros recursos de indivíduos e instituições, os quais podem compartilhar informações, aplicações e resultados, além de recursos computacionais que elevam a capacidade de processamento do ambiente. A tecnologia de Grid Computing será abordada em detalhes nas próximas seções. 2.5 Sistemas distribuídos Nessa seção trata-se do conceito de sistemas distribuídos, suas características e arquiteturas Histórico Desde o surgimento dos primeiros computadores devido, entre outros, ao pesquisador Von Neuman4 na década de quarenta, até o avanço das atuais redes de dados, foi constante a alteração no processo produtivo de software em relação à sua funcionalidade e à sua complexidade para atender à crescente demanda de utilização das tecnologias ao redor do mundo. Os primeiros computadores de grande-porte, chamados mainframes, possibilitaram o modelo de computação com a utilização de funcionalidades centralizadas em apenas um dispositivo, ou seja, os recursos estavam todos disponíveis em um mainframe central e os usuários utilizavam seus serviços disponíveis através de terminais locais ou remotos. A partir de 1985, o aumento da produção de dispositivos computacionais e o avanço da Internet foram fatores fundamentais para o surgimento de um novo paradigma no desenvolvimento de softwares. Os recursos tornaram-se compartilhados e também distribuídos entre um grande número de computadores separados geograficamente, característica que fortaleceu a concepção da arquitetura cliente-servidor. Na arquitetura cliente-servidor, o programa executado em máquinas locais (clientes) tem acesso aos serviços fornecidos por computadores remotos (servidores) fazendo o acesso 4 John Von Neuman Matemático húngaro criador do primeiro Computador Digital Eletrônico.

41 39 através de uma rede de dados, caracterizando assim um processamento de informação distribuído entre as duas máquinas. Entretanto, esse novo modelo de software conduziu a novos desafios em relação ao desenvolvimento e gerenciamento de programas distribuídos, como também questões técnicas pertinentes ao ambiente da época: Ausência de estados globais dos recursos remotos (acesso a memória RAM das máquinas remotas), dificuldades para solucionar problemas básicos devido à discordância entre as partes responsáveis pelos recursos distribuídos para tomarem uma ação comum (FISCHER; LYNCH; PETERSON, 1985). Entretanto, hoje em dia já existem algoritmos específicos que são utilizados para solucionar esses desafios. No início dos anos 90, com a concepção da Web, a arquitetura de sistemas distribuídos passou a assumir um papel de tecnologia definitiva para os desenvolvedores de software, que passaram a visar seus aplicativos com funcionalidades de acesso remoto a sistemas legados, sistemas de fornecedores e clientes. Esse cenário favoreceu o surgimento de diversas técnicas e tecnologias de sistemas distribuídos com foco no processamento e compartilhamento de informações de uma forma simples e ágil, facilitando assim a tarefa do desenvolvedor de aplicativos e trazendo transparência para os usuários finais Arquitetura A arquitetura de sistemas distribuídos é abordada por diversos autores Tanenbaum (1994) define Sistemas Distribuídos como uma "Coleção de computadores independentes que se apresenta ao usuário como um sistema único e consistente". Adicionalmente, Coulouris, Dollimore e Kindberg (2002) também destacam esse modelo de processamento como uma "Coleção de computadores autônomos interligados através de uma rede de computadores equipados com software que permita o compartilhamento dos recursos do sistema: hardware, software e dados". Baseado nessas duas definições pode-se então consensuar a definição de sistemas distribuídos como uma coleção de computadores que compartilham os seus recursos (hardware, software e dados) de uma maneira transparente para a interface humana, ou seja, o usuário tem a percepção de que todos os recursos utilizados são locais. Os sistemas distribuídos são construídos através de uma camada lógica denominada

42 40 middleware, executada acima da camada do sistema operacional e abaixo das aplicações, sendo a responsável pelo funcionamento de um sistema distribuído através de diversos recursos físicos separados, conforme a Figura 1: Figura 1 Arquitetura dos Sistemas Distribuídos (TANENBAUM; STEEN, 2002) Características Algumas características são típicas na definição de um sistema distribuído, porém cada um pode apresentar propriedades diferentes dependendo da sua finalidade. As características julgadas importantes para grande parte dos sistemas distribuídos são destacadas nesse trabalho. Transparência Um dos objetivos mais importantes de um sistema distribuído é o fato de ocultar, para o usuário, que os processos utilizados por ele são fisicamente distribuídos por diversos computadores (TANENBAUM; STEEN, 2002). Alguns aspectos de transparência são destacados a seguir: Transparência do acesso: oculta a maneira de como um recurso é alcançado. Transparência da posição: oculta a localização de onde o recurso é encontrado. Transparência da migração: oculta a possibilidade de um recurso poder mover-se para outra posição. Transparência de deslocamento: oculta a possibilidade de um recurso poder ser movido para outra posição enquanto estiver em uso. Transparência de replicação: oculta que um recurso pode ser replicado. Transparência de concorrência: oculta que um recurso pode ser utilizado por

43 41 diversos usuários concorrentes. Transparência de falha: oculta a falha e a recuperação de um recurso. Transparência de persistência: oculta se um aplicativo está sendo executado em memória real ou em disco. Um sistema distribuído é considerado transparente se o usuário, ao utilizá-lo, tem a sensibilidade de um único sistema, e sem necessariamente perceber que ao utilizar certa funcionalidade está executando processos em diversas máquinas fisicamente separadas. Escalabilidade Escalabilidade é a característica do sistema que define a funcionalidade de gerenciar e atender o crescimento de demanda de trabalho de forma uniforme (BONDI, 2000). Essa funcionalidade habilita o sistema a suportar o aumento da carga de trabalho, adequando a sua utilização, de modo a minimizar ou eliminar impactos no desempenho do sistema. São constantes as dificuldades de escalabilidade em sistemas que possuem alguma funcionalidade centralizada, como por exemplo, serviços disponibilizados por um único servidor. Interoperabilidade Interoperabilidade é a propriedade referente a habilidade de diversos sistemas e tecnologias trabalharem juntos. IEEE (1990) define interoperabilidade como a habilidade de dois ou mais sistemas trocarem informações e poderem utilizar esses dados após a troca. Em outras palavras, interoperabilidade significa a possibilidade um sistema desenvolvido com a tecnologia A comunicar-se com outra plataforma desenvolvida com a tecnologia B sem a necessidade de grandes mudanças em suas arquiteturas. Para tal feito, torna-se importante a padronização das interfaces das tecnologias. Portabilidade Portabilidade é a característica de mover, sem a necessidade de grandes adaptações e modificações, uma determinada aplicação executada em um ambiente A para um ambiente B

44 42 que possua as mesmas interfaces. Garen (2007) reforça a definição de portabilidade: Portabilidade não implica que uma aplicação será simplesmente transferida para uma nova plataforma, mas também não significa que um grande esforço é necessário para que ela funcione. Portabilidade é simplesmente a habilidade de utilizar o programa em outro sistema com razoável custo e esforço. Dependabilidade Dependabilidade é a habilidade para disponibilizar um serviço considerado confiável. O serviço entregue por um sistema tem o seu comportamento definido pela percepção dos usuários; portanto, a sua funcionalidade deve estar de acordo com a sua especificação. Os atributos da característica de dependabilidade são: Disponibilidade: prontidão para a entrega do serviço quando requisitado. Confiabilidade: continuação da entrega do serviço correto. Segurança: ausência de consequências catastróficas no ambiente. Integridade: ausência de mudanças impróprias no sistema. Manutibilidade: habilidade para reparos e manutenções. O conceito de tolerância a falha também é aplicado à característica de dependabilidade e sugere preservar a entrega do serviço corretamente mesmo na presença de falhas. Geralmente, esse conceito é implementado utilizando técnicas de detecção de erros e seus subsequentes procedimentos de recuperação (AVIZIENIS;LAPRIE;RANDELL, 2001). 2.6 Grid Computing A tecnologia de Grid Computing será abordada com mais detalhes nesta seção, como o seu histórico, definição, arquitetura, principais sistemas e projetos Histórico A história dos sistemas distribuídos concebendo os conceitos de Grid Computing surgiu na década de 80, período de intensa pesquisa, desenvolvimento e disponibilização de

45 43 hardware, software e aplicações para computadores paralelos. Nessa época, os desenvolvedores de sistemas estavam focados em aplicações de larga escala que facilmente atingiam os limites dos recursos computacionais, mesmo sendo executadas nos computadores paralelos mais rápidos presentes no momento. Essa situação fortaleceu a pesquisa pelo processamento além dos limites locais das máquinas para alcançar resultados de problemas de larga escala. Grid Computing foi pensado inicialmente como uma arquitetura para estender os paradigmas da computação paralela de clusters firmementes acoplados para sistemas geograficamente distribuídos. Porém, essa tecnologia está sendo altamente utilizada como uma plataforma para a integração de aplicações e recursos fracamente acoplados. Nos anos 90, surgiu um projeto nos Estados Unidos da América denominado US Gigabit testbed, com foco nas aplicações distribuídas em áreas metropolitanas (metropolitanarea) e também em áreas mais abrangentes (wide-area). O projeto era composto de quatro ambientes de testes (testbeds) com os objetivos de investigar o potencial das arquiteturas de redes e prover interface de contato para aplicações distribuídas. O projeto I-WAY (Information Wide Area Year) é considerado a primeira implementação de Grid Computing e tinha como objetivo interligar redes de supercomputadores. Em 1995, durante uma conferência sobre supercomputação, pesquisadores pioneiros integraram um ambiente de teste com mais de 17 redes interconectadas. Mais de 60 aplicações foram desenvolvidas para a conferência e disponibilizadas no IWAY, assim como, um software rudimentar de Grid para prover acesso, segurança e coordenar os recursos. Esse projeto abriu as portas para o paradigma de Computação em Grade no meio acadêmico. A tecnologia de Grid Computing tornou-se um conceito global devido ao trabalho de diversas instituições ao redor do mundo para o desenvolvimento e especialização dessa técnica (BERMAN; FOX; HEY, 2003). O programa foi um dos projetos pioneiros na implementação de uma moderna infra-estrutura de Grid Computing orientada à Internet. Esse projeto tinha como objetivo analisar os dados captados pelo telescópio de rádio instalado em Arecibo, Puerto Rico, para a busca de sinais de vidas extraterrestre.

46 Definição Grid Computing, também chamada de Computação em Grade em português, é o conceito que está reformulando as infra-estruturas computacionais, tornando-as mais produtivas e eficientes. Essa tecnologia tem como objetivo elevar a capacidade computacional do ambiente, através da integração de dispositivos distribuídos geograficamente. O termo Grid Computing surgiu como analogia aos sistemas de distribuição de energia (Power Grids), devido a sua característica de prover recursos de forma contínua e transparente. A arquitetura de Grid Computing visa o gerenciamento de acesso a recursos remotos de modo escalável, seguro e com alto-desempenho, disponibilizando um cenário de colaboração científica com o objetivo de compartilhar recursos para grupos de trabalhos distribuídos geograficamente (BERMAN; FOX; HEY, 2003). Foster, Kesselman e Tuecke (2001) definem Grid Computing como um ambiente capaz de conduzir o compartilhamento de recursos de forma segura, coordenada e flexível entre coleções dinâmicas de indivíduos e instituições. Chetty e Buyya (2002) definem como A habilidade de compartilhar, selecionar e agregar recursos distribuídos geograficamente para solucionar problemas de larga escala na ciência, engenharia e comercio" Baseado em todas as definições acima identifica-se, como característica principal dos ambientes em grade, o compartilhamento e a integração de recursos distribuídos para o aumento da capacidade de processamento. Esses recursos são geralmente os processadores, as memórias RAM5 e os dispositivos de armazenamento, os quais apresentam em sua grande maioria capacidade excedente, ou seja, possuem carga de trabalho menor do que a sua capacidade total. De acordo com esse cenário, a tecnologia de Grid Computing visa à integração de componentes distribuídos para a constituição de um supercomputador virtual disponível para diversas aplicações. Tradicionalmente, o usuário ao submeter uma aplicação a um ambiente de Grid Computing está utilizando transparentemente a capacidade excedente de diversos dispositivos distribuídos geograficamente e pertencentes a distintos usuários e instituições. Atualmente, o conceito de sistemas distribuídos está tornando-se popular além das fronteiras acadêmicas, situação que influenciou o surgimento de diversas nomenclaturas como 5 Memória de acesso aleatório que permite a leitura e a escrita, tornando se a principal memória em computadores.

47 45 Compute Grids, Data Grid, Bio Grid, Knowledge Grid, Cluster Grid e simplesmente Grid. Foster (2002b) sugere então três propriedades para que um sistema seja considerado um Grid Computing: Coordenação de recursos que não estão sujeitos a um controle centralizado. Utilização de padrões abertos, protocolo de propósito geral e interfaces. Prover qualidade de serviço não-trivial. É possível, com base nessas afirmações, exaltar a diferença entre a arquitetura de Cluster e Grid Computing. A análise de uma arquitetura de Cluster demonstra certas propriedades presentes também em um sistema de Grid Computing, como o compartilhamento de carga de trabalho e a distribuição de serviços através de uma rede local. Porém, em um ambiente de Cluster, o controle dos servidores e serviços geralmente é centralizado, descaracterizando-o como um sistema de Grid Computing. Buyya (2002) reforça a diferença com a seguinte afirmação: Se acontece o compartilhamento de recursos gerenciado por um único sistema global sincronizado e centralizado, então é um cluster. Em um cluster, todos os nós trabalham cooperativamente em um objetivo comum e o objetivo é a alocação de recursos executada por um gerente centralizado e global. Em Grid, cada nó, possui seu próprio gerente de recursos e política de alocação. A Web também apresenta características presentes em um sistema de Grid, como a utilização de protocolos de propósitos gerais e abertos, mas também não pode ser considerada (pelo menos até o presente momento) uma arquitetura de Grid, devido à ausência de coordenação de recursos para garantir a qualidade de serviços (FOSTER, 2002b). Gentzsch (2002 apud MAROWKA, 2002) argumenta, em contra partida as três propriedades definidas por Foster (2002b), que essas definições podem reduzir o potencial e a rica variedade das tecnologias de Grid, com diferentes arquiteturas, modelos operacionais, aplicações. De acordo com Marowka (2002), a definição de Grid é uma visão aberta que dificilmente pode ser definida. A tentativa de definir Grid pode alcançar somente o horizonte tecnológico previsto que, em média, tem um espaço de dois anos. A tecnologia de Grid Computing remete a novos paradigmas de processamento que podem acarretar no surgimento de novas arquiteturas e padrões, podendo mudar a sua direção e, consequentemente, a sua definição.

48 46 Porém, consolidando as definições acima, é notório destacar que o acesso simples a um conjunto de recursos distribuídos geograficamente e a colaboração entre comunidades e organizações são as características fundamentais para obter sucesso em uma arquitetura de Grid Computing Organizações Virtuais A característica elementar de colaboração entre organizações distintas e distribuídas traz grandes desafios à tecnologia de Grid Computing. Foster, Kesselman e Tuecke (2001, p.2) destacam como principal desafio no conceito de Grid Computing o "[...] compartilhamento de recursos coordenados e a solução de problemas em organizações virtuais dinâmicas e multi-institucionais". O compartilhamento citado não se refere a uma simples troca de arquivo, mas envolve acesso direto a computadores, aplicações, dados, entre outros recursos que são necessários para solucionar colaborativamente um determinado problema. Com base nessa característica, a ação de compartilhamento deve ser altamente controlada, com os provedores e consumidores definindo políticas claras de utilização, como, quais os recursos que serão compartilhados, quem está habilitado a compartilhar e sobre qual condição. Os conjuntos de indivíduos e instituições definidos pelas mesmas regras de compartilhamento são denominados Organizações Virtuais (OV). Exemplos de OVs são: uma determinada Pesquisa Científica, Membros de um Consorcio, Membros de uma Pesquisa de Mercado, entre outros, podendo estes variar em seu escopo de trabalho, tamanho, duração, comunidade e estrutura, mesmo participando do mesmo ambiente de Grid Computing. Em Grid Computing é notório a necessidade por um ambiente flexível para o relacionamento de compartilhamento, com níveis precisos de controle sobre como os recursos podem ser compartilhados e usados. Foster, Kesselman e Tuecke (2001) defendem que as tecnologias tradicionais de Computação Distribuída não tratam desses desafios, citando como exemplo a Internet, tecnologia destinada a comunicação e a troca de informação entre computadores, sem prover serviços de coordenação de recursos entre os sítios de computação.

49 47 Outro exemplo a ser citado são os Provedores de Serviços de Aplicações (ASP), que disponibilizam seus serviços com algumas restrições, como o uso de uma Virtual Private Network para a comunicação com seus clientes. A tecnologia de Grid Computing foca exatamente o compartilhamento dinâmico entre organizações, sendo considerada como um complemento para as tecnologias de Computação Distribuídas tradicionais. O potencial de uso das Organizações Virtuais para a tecnologia de Grid Computing é destacada: Nós acreditamos que as Organizações Virtuais têm potencial para mudar drasticamente a maneira que nós usamos os computadores para solucionar problemas, assim como a Web mudou a forma como trocamos informações (FOSTER; KESSELMAN; TUECKE, 2001, p.3). A Figura 2 tem como objetivo clarificar um ambiente de Grid Computing composto pelas interações entre os Participantes, as Organizações Reais e Organizações Virtuais. Figura 2 - Ambiente de Organizações Virtuais (FOSTER; KESSELMAN; TUECKE, 2001) A Figura 2 exemplifica um cenário composto por três Organizações Reais (círculos) e duas Organizações Virtuais A OV P é responsável por agrupar participantes interessados no consórcio Aerospace Design, enquanto a OV Q é responsável por agrupar indivíduos que concordam em compartilhar seus recursos com o projeto de Ray Tracing Computation. Os participantes da Organização Real da esquerda participam apenas em projetos da

50 48 OV P; os participantes da Organização Real da direita participa em projetos da Organização Virtual Q; enquanto a terceira Organização Real possui participantes em P e Q. O modelo de Grid Computing é bastante dinâmico, e suas políticas de governança e acesso aos recursos variam de acordo com as Organizações Reais, e Organizações Virtuais envolvidas na constituição do ambiente Arquitetura As Organizações Virtuais são conceitos que exigem da arquitetura de Grid Computing novas funcionalidades e modelos de integrações para a abrangência de recursos geograficamente distribuídos pertencentes a diferentes entidades. Esse desafio acarretou a necessidade pela busca da definição de um modelo de arquitetura capaz de integrar recursos atendendo o requisito de interoperabilidade. Foster, Kesselman e Tuecke (2001) defendem a arquitetura de Grid Computing como a responsável pela definição de mecanismos básicos para que cada usuário de uma Organização Virtual possa negociar, estabelecer e gerenciar os relacionamentos de compartilhamento. A arquitetura deve ser aberta e baseada em padrões, facilitando a extensibilidade, interoperabilidade, portabilidade e compartilhamento de códigos. Pode-se também construir API's6 e SDK's7 para a disponibilização de abstrações necessárias para tornar um Grid utilizável. Essas práticas, juntamente com a arquitetura de Grid Computing, constituem o que atualmente é chamado de middleware, o serviço necessário para suportar aplicações em um ambiente distribuído. Para facilitar o desenvolvimento de novas funcionalidades em um ambiente de Grid, foi concebida uma arquitetura escalável em camadas. A Figura 3 demonstra as cinco camadas de uma arquitetura de Grid Computing: 6 Application Program Interface É um conjunto de regras e padronizações adotado por um software para que algumas de suas funcionalidades possam ser utilizadas por outros aplicativos. 7 Software Development Kit É um conjuto de ferramentas utilizadas para o desenvolvimento de softwares

51 49 Figura 3 Arquitetura em Camadas (FOSTER; KESSELMAN; TUECKE, 2001) Camada de fábrica Na arquitetura de Grid Computing, a camada de nível mais baixo é denominada fábrica e corresponde aos dispositivos físicos ou recursos que os usuários do Grid desejam compartilhar (FOSTER, 2002a). Os componentes pertencentes à fábrica implementam as operações locais que ocorrem em recursos específicos, como resultado de uma operação iniciada em camadas de níveis superiores. Esses recursos podem ser entidades físicas ou lógicas, e podem utilizar protocolos que não são específicos da arquitetura de Grid Computing, como por exemplo, o NFS8 para acesso ao local de armazenamento de dados. Exemplos dos tipos de recursos da camada de fábrica são: recursos computacionais, recursos de armazenamento, rede e dispositivos especializados, como telescópios, microscópios, entre outros. Camada de conectividade A camada de conectividade define os protocolos de comunicação e autenticação requeridos por uma transação em uma rede de Grid Computing. Esses protocolos derivam atualmente do TCP/IP, e habilitam a possibilidade de troca de dados entre os recursos presentes na camada da Fábrica. 8 NFS Protocolo de acesso a arquivos através da rede.

52 50 Porém, é possível, com o avanço da tecnologia de Grid Computing, que novos protocolos sejam necessários para o desenvolvimento de diversas funcionalidades e serviços. Em relação às soluções de autenticação, os mecanismos presentes nos ambientes de Organizações Virtuais dependem das seguintes características: Single sign-on: oferece a funcionalidade para o usuário autenticar-se apenas uma vez no ambiente de Grid e assim ter acesso aos múltiplos recursos presentes na camada de Fábrica. Delegação: o usuário tem a possibilidade de delegar os seus direitos para que um programa possa acessar determinados recursos. Integração com diversas soluções de segurança: cada sítio ou provedor de recursos pode aplicar qualquer solução de segurança localmente, como por exemplo, Kerberos9 e Unix10. Entretanto, o ambiente de Grid Computing deve estar apto para interoperar ao mesmo tempo com diversos tipos de segurança de diferentes locais. Relações baseadas em confiança: para que o usuário possa usufruir de múltiplos provedores de recursos ao mesmo tempo, o sistema de segurança deve prover serviços para que isso possa acontecer sem a necessidade de solicitar cooperação entre os provedores. Camada de recursos A camada de recursos desenvolve, sob a camada de conectividade, protocolos (APIs e SDKs) para a negociação segura, iniciação, monitoramento e controle de operações de compartilhamento em recursos individuais. A camada de recursos invoca funções da camada de fábrica para o acesso e controle dos recursos. Destaca-se que, nessa camada, ocorre exclusivamente o gerenciamento de recursos individuais e não há qualquer controle sobre o estado global e atômico do sistema como um 9 Protocolo de transporte de rede que oferece serviços de segurança. 10 Sistema Operacional Multitarfa que possui determinados serviços de segurança.

53 51 todo. A camada de recursos distingue-se em duas classes: Protocolos de Informação: responsável por obter informações sobre a estrutura e o estado dos recursos. Protocolos de Gerenciamento: responsável por negociar acesso a um recurso compartilhado. Camada coletiva Enquanto a camada de recursos preocupa-se apenas com recursos individuais, a camada coletiva tem enfoque na captura de interações entre coleções de recursos. Os principais serviços são destacados a seguir: Co-alocação, Alocação, escalonamento e negociação de recursos (brokering): permite que os participantes de uma Organização Virtual possam solicitar alocação de um, ou mais recursos, para o escalonamento de tarefas. Replicação de dados: gerencia o armazenamento de dados de uma Organização Virtual. Contabilidade e Pagamento: coleta informações sobre a utilização de recursos para propósito de cobrança. Colaboração: permite o trabalho colaborativo distribuído através do compartilhamento e troca de informações, síncrona ou assíncrona, entre usuários potenciais de uma comunidade. As funcionalidades citadas anteriormente destacam serviços que são utilizados na prática. Vale ressaltar que os protocolos da camada de recursos são genéricos e largamente disponibilizados, enquanto os protocolos da camada coletiva são focados nas aplicações ou domínios específicos.

54 52 Camada de aplicação A camada de aplicação compreende as aplicações geradas pelos usuários no ambiente de uma Organização Virtual. As aplicações desenvolvidas utilizam os serviços definidos nas camadas inferiores, como acesso aos dados, descoberta de recursos, entre outras funcionalidades (FOSTER; KESSELMAN; TUECKE, 2001). Conforme já abordado, os componentes das camadas coletivas são responsáveis pela disponibilização de serviços necessários para a execução de uma aplicação, ou seja, a camada de aplicação depende diretamente da camada coletiva para a execução de determinadas funcionalidades Componentes A arquitetura em camadas da tecnologia de Grid Computing foi descrita anteriormente. Nessa seção, serão abordados os principais componentes de Grid Computing para habilitação de uma plataforma robusta e confiável. A IBM (2008) destaca os seis principais componentes: Segurança Os computadores e servidores em uma plataforma de Grid são responsáveis pela execução de diversas aplicações, muitas vezes processando informações valiosas para uma determinada organização. Os componentes de segurança estão concentrados em serviços de criptografia, autenticação e autorização, provendo maior segurança para a plataforma. Interface do usuário O acesso às informações que estão sendo executadas em uma plataforma de Grid Computing é um aspecto importante para as Organizações Virtuais. Os usuários necessitam ter acesso às informações de maneira simples e fácil. As Interfaces disponibilizadas são responsáveis por atender esse requisito, geralmente através de duas maneiras: Interface fornecida pela aplicação que o usuário está executando. Interface habilitada pelo administrador da plataforma de Grid, geralmente em

55 53 forma de um portal Web, para prover acesso as aplicações e recursos disponíveis. Gerenciamento da carga de trabalho Os usuários executam diversas aplicações em um ambiente de Grid Computing e necessitam ter informações sobre os recursos disponíveis para alcançar melhor desempenho. Sendo assim, as aplicações estabelecem comunicação com o gerenciador de carga de trabalho para a descoberta de recursos e seus respectivos estados dentro de uma plataforma de Grid. Em muitas implementações de Grid Computing, o gerenciador de carga de trabalho é chamado de Broker, sendo o responsável pela descoberta de recursos disponíveis e apropriados para a execução de uma aplicação, com base nas características da própria aplicação e parâmetros fornecidos pelos usuários. Em algumas plataformas, o broker pode atuar em conjunto com o serviço chamado MDS, o qual provê informações sobre recursos disponíveis em um Grid e seus respectivos estados. Escalonador Uma vez que os recursos tenham sidos identificados pelo sistema de Broker, o próximo passo é a definição de recursos que serão utilizados para a execução de uma aplicação e atribuição de Jobs. Deve-se levar em consideração a prioritização de filas, gerenciamento de carga, recursos reservados, monitoramento e progresso. É coerente citar que se a execução de uma aplicação corresponde a um conjunto de Jobs independentes e sem nenhuma interdependência, então, não é necessário a utilização de um Escalonador especializado. Entretanto, se for necessário a alocação de recursos específicos ou a execução de Jobs concorrentes que requererem comunicação inter-processo, um escalonador específico pode ser utilizado para coordenar eficientemente a execução em Grid. Gerenciamento de dados A aplicação pode, em muitas vezes, ser iniciada em recursos que não possuem os dados necessários para a execução; portanto, o gerenciador de gados deverá movimentar os

56 54 dados para os locais necessários através de várias máquinas e diversos protocolos. Gerenciamento de recursos O gerenciador de recursos é responsável pela iniciação de um determinado Job em um recurso específico, assim como o monitoramento do estado de um conjunto de Jobs e a coleta de seus resultados quando finalizado. A Figura 4 ilustra as interações entre os componentes da plataforma de Grid Computing citados acima. Figura 4 - Interações entre os Componentes (JACOB et al., 2008) É importante destacar que uma plataforma de Grid Computing não é implementada utilizando apenas os componentes citados; pelo contrário, é um ambiente aberto que pode envolver tecnologias adicionais e protocolos existentes Tipos As tecnologias de Grid podem ser atualmente classificadas em três principais tipos: Grid Computing Grade Computacional Data Grid Grade de Dados Network Grid Grade de Redes Há também um novo conceito chamado Computação Voluntária, o qual pode abranger

57 55 qualquer um desses três tipos. Grade computacional O foco das grades computacionais é a integração de diversos recursos computacionais para a habilitação de um ambiente com alto poder de processamento. Uma característica fundamental desses ambientes é a exploração dos recursos excedentes em computadores pessoais e servidores, diminuindo a ociosidade presente nesses dispositivos e aumentando a capacidade de processamento do ambiente de Grid Computing. As grades computacionais possibilitam que aplicações que exigem alto poder de processamento possam ser executadas em um ambiente constituído por diversas máquinas distribuídas geograficamente e de forma descentralizada. Essas características influenciaram o nome Grid Computing como um conceito de integração de recursos compartilhados e distribuídos. Grade de dados A grade de dados visa o aproveitamento dos espaços de armazenamento disponíveis e ociosos em diversas máquinas interligadas para a constituição de um repositório de dados com alta capacidade de armazenamento. Esses ambientes, dependendo da quantidade de máquinas, podem facilmente alcançar as medidas de Terabyte. Grade de redes Este tipo de grade tem a funcionalidade de prover serviços de comunicação tolerantes a falha e com alto nível de desempenho. As grades de redes utilizam a capacidade total ociosa de um canal de comunicação para o aumento da largura da banda disponível, e também aproveitam a existência dessa interligação para promover serviços de colaboração e compartilhamento. Vale ressaltar que as tendências demonstram futuras integrações desses tipos de tecnologia de Grid Computing com diversos conceitos, possibilitando o surgimento de novos tipos de ambientes como, por exemplo, Mobile Grid, Semantic Grid, entre outros.

58 Computação Voluntária A tecnologia de Grid Computing é em muitas vezes citada também como Computação Voluntária. Pode-se destacar que a Computação Voluntária é um modelo derivado de Grid Computing. Conforme visto em sua arquitetura, a tecnologia de Computação em Grade visa a integração de recursos computacionais para criar um ambiente de processamento com alta capacidade, onde os usuários podem compartilhar dados, executarem aplicações em conjunto e trabalharem colaborativamente. Baseado nessas características, é possível afirma que Computação Voluntária é um modelo de processamento que utiliza a tecnologia de Grid Computing como arquitetura, mas que apresenta um ambiente menos interativos para os seus participantes. Em Computação Voluntária, os usuários participam apenas compartilhando os seus recursos computacionais, mas raramente possuem acesso ao ambiente informacional, o que não permite que eles coletem informações ou iniciem uma aplicação. Em outras palavras, o modelo de Computação Voluntária apresenta o conceito de voluntariado relacionado somente ao compartilhamento de recursos computacionais de forma passiva, onde os voluntários raramente são envolvidos no projeto para ajudar de forma mais interativa, seja executando uma aplicação ou compartilhando resultados A Importância dos padrões A integração de dispositivos heterogêneos e distribuídos geograficamente é uma característica eminente em um ambiente de Grid Computing, tornando necessária a adoção de determinados padrões para a habilitação da interoperabilidade entre os recursos. Os padrões são necessários para definir e facilitar as técnicas de comunicação entre diversos dispositivos, sistemas e ambientes de Grid Computing. A OGSA (Open Grid Service Architecture) foi desenvolvida por membros do grupo, atualmente denominado OGF (Open Grid Forum), e tem como base os conceitos e tecnologias de Web Services11, representando uma evolução para a arquitetura dos sistemas de Computação em Grade. A OGSA define o que são os serviços de Grid, as suas estruturas gerais e a forma de disponibilização no ambiente através dos padrões existentes em Web Services, como o 11 Web Services é a solução utilizada para a integração e a comunicação entre diferentes sistemas e aplicações.

59 57 protocolo SOAP12 e a linguagem de marcação XML13. Essas características remetem a um sistema com padrões abertos de comunicação para proporcionar interoperabilidade. Em um ambiente orientado a serviços, a interoperabilidade pode ser particionada em dois subproblemas - A definição das interfaces de serviços e os protocolos que podem ser utilizados para invocar uma determinada interface. A visão orientada a serviços permite endereçar a necessidade por mecanismos de definições de interfaces padrões, transparência local e remota, e adaptação para os sistemas operacionais locais. Também se destaca a simplificação da virtualização, ou seja, a funcionalidade que permite o acesso consistente através de múltiplas plataformas com transparência de localização, habilitando o mapeamento de múltiplas instâncias de recursos lógicos em um mesmo recurso físico (FOSTER et al., 2002). Na OGSA todos os dispositivos são tratados como serviços - recursos computacionais, recursos de armazenamento, redes, aplicativos e bancos de dados. A OGSA também abrange seis principais áreas definidas em termos de capacidade frequentemente requiridas em um cenário de Grid Computing para definir os seus serviços. Com base nos serviços descritos abaixo, é possível destacar que a OGSA cobre os principais desafios presentes na arquitetura e nos componentes que formam um ambiente de Grid Computing. Serviços de infra estrutura Os serviços de infra-estrutura são um conjunto de funcionalidades comum requiridas por serviços de níveis superiores. A OGSA utiliza a tecnologia de Web Services para construir sua infra-estutura e também Web Service Description Language (WSDL) para definir as interfaces dos serviços. Os serviços de infra-estrutura são os responsáveis pela nomeação de recursos, comunicação e descoberta. Na OGSA um recurso é uma entidade física ou lógica que suporta o uso ou a operação de uma aplicação de computação ou de um ambiente de informação computacional. Os recursos geralmente fornecem algum tipo de capacidade, como os servidores, redes, memórias, aplicações e bancos de dados. 12 SOAP é o protocolo desenvolvido que permite a chamada remota de funções em diferentes sistemas. 13 XML Recomendação da W3C para gerar linguagens de marcação para necessidades específicas.

60 58 Serviços de gereciamento de execução Os serviços de gerenciamento de execução são responsáveis por tratar problemas de gerenciamento para a conclusão de unidades de trabalho, incluíndo os serviços da OGSA e as aplicações legadas. Em outras palavras, esses serviços estão preocupados com a execução de unidades de trabalho, como alocação, provisionamento e o gerenciamento do ciclo de vida. Serviços de gerenciamento de dados Os serviços de gerenciamento de dados estão relacionados com os processos de localizar, armazenar, transferir e gerenciar os recursos de dados. A arquitetura de dados da OGSA apresenta um conjunto de ferramentas de serviços de dados e interfaces que são capazes de tratarem diversos cenários. Estes serviços direcionam o acesso a dados através de Web Services para dados estruturados e não estruturados. Serviços de segurança A segurança é a habilidade de proteger os recursos presentes no ambiente, tanto os dos usuários, quanto os dos provedores de recursos. Vale ressaltar que os recursos correspondem geralmente a informações, dados, comunicação e serviços de processamento de dados, os quais são disponibilizados muitas vezes em forma de serviço. Os serviços de segurança tem como finalidade prover autenticação, autorização, garantia de integridade. Serviços de gerenciamento de recursos Os serviços de gerenciamento de recursos provêem o gerenciamento de capacidades para os recursos presentes no ambiente de Grid Computing. Estes recursos podem ser os recursos individuais, componentes do Grid e também a infra-estrutura da OGSA. Serviços de informação Os serviços de informação correspondem a habilidade de criar e acessar informações sobre o ambiente de Grid Computing e os seus recursos. As informações correspondem aos dados dinâmicos e qualquer dado logado no sistema.

61 Principais sistemas Nas seções anteriores foram descritos os conceitos, as arquiteturas, os tipos e os componentes de Grid Computing. Nesta seção, serão abordadas as implementações dos principais sistemas de Grid Computing como, por exemplo, os projetos colaborativos GLOBUS, glite, OurGrid, BOINC e também produtos corporativos. GLOBUS Globus Toolkit (GLOBUS, 2008) é um projeto open-source que visa à habilitação da tecnologia Grid permitindo que as pessoas compartilhem ciclos de CPU, bancos de dados e outras ferramentas em distintas corporações, instituições e comunidades geográficas, sem sacrificar a autonomia local. O Globus oferece módulos e bibliotecas para o monitoramento, descoberta e gerenciamento de recursos, sendo um sistema caracterizado como uma coleção de serviços que permite o desenvolvimento de aplicações em maneira incremental, podendo adicionar serviços extras conforme necessário. Os serviços do Globus são divididos em serviços locais e serviços globais, sendo que os serviços globais são constituídos através da integração de diversos serviços locais. O Globus Toolkit também inclui módulos para segurança, gerenciamento de recursos, gerenciamento de dados, comunicação, detecção de falhas e portabilidade, os quais são empacotados como uma coleção de componentes que podem ser utilizados para o desenvolvimento de aplicações. O destaque do Globus Toolkit é a sua disponibilização como software livre, característica que permite a adoção de uma estratégia colaborativa, permitindo que inúmeras pessoas ao redor do mundo possam melhorar, alterar e adicionar novas funcionalidades ao sistema. glite glite (2009) é um middleware de Grid Computing que nasceu do trabalho colaborativo de mais de 80 pessoas de 12 diferentes grupos acadêmicos e centros de pesquisas industrias, os quais fazem parte do projeto EGEE.

62 60 O glite (2009) provê um ambiente de trabalho para o desenvolvimento de aplicações de Grid que utilizam o poder da computação distribuída através da Internet. O glite segue a arquitetura orientada a serviços (SOA), a qual habilita a interoperabilidade entre diferentes serviços de Grid e facilita a intergração com padrões, como a própria OGSA. É importante destacar que as evoluções no glite foram também fortemente influenciadas pelo projeto do LCG, projeto de Grid Computing utilizado pelo expermento do Superacelerador de Partículas. OurGrid O OurGrid (2009) é um middleware de Grid Computing brasileiro que teve sua origem na Universidade Federal de Campina Grande e está em produção desde A comunidade do OurGrid está aberta para a sociedade e a sua capacidade de processamento é obtida através do compartilhamento de recursos por parte de seus usuários. É importante destacar que os usuários que colaboram com mais recursos têm prioridades para executarem suas tarefas. O OurGrid é um software open-source desenvolvindo em Java usando a licença GPL, firmando o seu comprometimento com a comunidade ativa de usuários e desenvolvedores. A plataforma de Grid do OurGrid atua no processamento de aplicações do tipo Bag-of-Tasks, o que corresponde as aplicações paralelas nas quais suas tarefas são independentes, permitindo que cada tarefa possa ser processada paralelamente no Grid sem que haja necessidade de comunicação entre elas. BOINC O BOINC (BOINC, 2008) é uma das principais plataformas de Grid Computing que segue o modelo de Computação Voluntária. O seu sistema foi desenvolvido na Universidade da Califórnia (Berkeley), mesma instituição dos criadores do O sistema tem enfoque na colaboração dos usuários para a composição de uma plataforma de Grid com alta capacidade de processamento. O BOINC disponibiliza um aplicativo de protetor de tela que, ao ser executado, utiliza os recursos das máquinas dos usuários para processamento da plataforma de Computação em Grade. Essa característica é um dos grandes méritos para o projeto BOINC por incentivar a economia computacional através da utilização de recursos de máquinas ociosas ao redor do

63 61 mundo, fator que possibilita a geração de um ambiente a ser utilizado por diversos projetos, pesquisas científicas e trabalhos colaborativos. Nos últimos anos, muitas iniciativas de projetos de pesquisas científicas vêm sendo possibilitadas através do uso do sistema BOINC. Instituições que necessitam de um ambiente com alta capacidade de processamento, encontram o BOINC como uma plataforma de suporte para suas aplicações, pois tal tecnologia habilita um ambiente, composto por máquinas pertencentes a diversas instituições em vários países, para execução de aplicações de larga escala. O BOINC suporta a execução de diversos projetos, pertencentes a distintas organizações, e também fornece APIs em C++ para o desenvolvimento de aplicações para acesso aos recursos do sistema. Hughes (2005) cita que o BOINC foi desenhado para ser um middlware menos complexo do que aqueles que seguem as implementações do OGSA. Sistemas corporativos Os sistemas apresentados acima são frutos de projetos colaborativos focados em pesquisas científicas. Porém, é notório destacar que atualmente as empresas estão buscando um ambiente tecnológico mais produtivo e menos ocioso, oferecendo assim retorno de investimento em tempo reduzido. Com base nesse desafio, as grandes empresas de tecnologia lançaram seus produtos de Grid Computing para auxiliar as corporações, instituições, órgãos governamentais, entre outros, a constituir um ambiente computacional tecnicamente robusto e financeiramente econômico. Os sistemas de Computação em Grade corporativos visam à implementação desses conceitos em recursos presentes nos datacenters para atender requisitos de balanceamento de carga, alta disponibilidade e diminuição do TCO14. A implementação consiste na integração de diversos servidores que atendam diversos serviços e demandas em um único ambiente de Grid Computing, capaz de gerenciar a carga de trabalho sem a necessidade de aquisição de novos equipamentos. Atualmente está em evidência no mercado de Tecnologia da Informação um termo denominado Cloud Computing, em português Computação em Núvem. Será abordado mais a frente nesta dissertação a sinergia entre Grid Computing e Cloud Computing, bem como os 14 TCO Estimativa financeira do custo total da posse de recursos, tal como software e hardware.

64 62 seus novos modelos de negócios Principais projetos Na seção anterior foram apresentados os principais sistemas de Grid Computing existentes até o momento. Entretanto, é necessário destacar os maiores e principais projetos de Computação em Grade ao redor do mundo, sendo esses responsáveis por grande parte das pesquisas científicas que são executadas em ambiente de alta capacidade de processamento. Os dois maiores projetos na atualidade são: EGEE (Enabling Grids for E-science) e OGS (Open Science Grid). EGEE Enabling Grids for E-sciencE (EGEE, 2008) é atualmente a maior infra-estrutura multidisciplinar de Grid Computing. É formada por mais de 140 instituições e oferece um ambiente escalável e confiável para comunidades de pesquisas da Europa e outros países ao redor do mundo. A infra-estrutura atualmente é composta por aproximadamente 300 sítios de processamento espalhados por 50 países, integrando um ambiente de computação com aproximadamente CPUs e responsável por atender a demanda de usuários. O EGEE é ideal para pesquisas científicas, especialmente para projetos que executam aplicações que requerem recursos considerados impraticáveis quando usadas as infraestruturas tradicionais da Tecnologia da Informação. O projeto EGEE foi dividido em fases. Atualmente o seu estado encontra-se na terceira fase: EGEE 1: o projeto EGEE iniciou suas atividades focadas em duas áreas bem definidas: Física de Partículas e Biomedicina, pois já haviam aplicações de Grid nesses dois campos de pesquisas, fator que favorecia o projeto piloto do EGEE. A primeira fase do projeto teve encerramento oficial no dia 31 de Março de EGEE 2: iniciou suas atividades em 1 de Maio de 2006, expandindo o escopo do projeto de apenas dois campos científicos para uma variedade maior de

65 63 aplicações e áreas do conhecimento. Na segunda fase do projeto, a infra-estrutura de Grid tornou-se ideal para qualquer pesquisa científica que requeria alta capacidade de processamento. EGEE 3: a terceira fase do projeto EGEE iniciou-se em 1 de Maio de 2008 tendo como co-fundador a comissão européia. O EGEE 3 tem como objetivo a expansão e otimização da infra-estrutura de Grid Computing que atualmente processa Jobs diariamente, submetidos por diversos domínios de pesquisas. A arquitetura do EGEE consiste em um conjunto de serviços de middlewares disponibilizados em uma coleção global de recursos de computação e armazenamento. Uma estrutura de suporte também é dedicada à operação do ambiente e possui as seguintes divisões: Production Service: a infra-estrutura é composta por aproximadamente 250 centros de recursos globais, provendo em torno de CPU e dezenas Petabytes de espaço para armazenamento. Essa infra-estrutura é utilizada diariamente por milhares de cientistas espalhados em mais de 200 Organizações Virtuais. Essa infra-estrutura executa a última versão do middleware glite e oferece um ambiente estável e robusto. Pre-Production Service: ambiente para teste e avaliação de mudanças e novas funcionalidades aplicadas ao middleware. Adicionalmente, o serviço de PréProdução estende a atividade de certificação do middleware para a avaliação do ambiente em comparação às condições reais de produção. EGEE Network Operations Centre (ENOC): serviços de operação que refletem a coordenação entre o EGEE e a rede dos provedores de recursos. O projeto EGEE tem grande apelo pela colaboração e incentiva que instituições, organizações e pesquisadores, colaborem com o projeto através do compartilhamento de recursos, dados, aplicações ou até mesmo apenas juntando-se a uma Organização Virtual

66 64 existente para trabalhos colaborativos. O EGEE também incentivou a criação de um novo projeto para atender as demandas da América Latina. O EELA (EELA, 2008) tem como objetivo a expansão da atual infraestrutura para constituir um ambiente com 41 Centros de Recursos, sendo que 13 estão localizados na Europa e 28 na América Latina, mobilizando aproximadamente 3000 CPUs e mais de 700 Terabytes. O Brasil está envolvido no projeto EELA através da participação de institutos de pesquisas e universidades. OSG O Open Science Grid (OSG, 2008) é um projeto suportado pelo National Science Foundation15 e tem como missão a integração de recursos computacionais e dispositivos de armazenamento de comunidades de pesquisas para estabelecer uma infra-estrutura comum de Grid Computing para satisfazer a crescente demanda dos projetos científicos por capacidade computacional. OSG é um consorcio de softwares, serviços, provedores de recursos e pesquisadores de universidades, laboratórios de pesquisas e centros de computação espalhados pelo território dos Estados Unidos da América, que juntos integram e operam o projeto OSG. O OSG também valoriza a colaboração entre seus membros, os quais compartilham seus recursos computacionais para a formação de um ambiente com capacidade de processamento superior ao que se conseguiria em um projeto individual. O OSG também fornece projetos para inclusão de comunidades de pesquisas, as quais não são familiares com a tecnologia de Grid Computing, através da modificação das suas aplicações para utilização do ambiente de computação fornecido pelo OSG. A interoperabilidade é uma das características principais no projeto OSG, uma vez que estão sempre almejando a integração da sua infra-estrutura com outros diversos projetos de Computação em Grade. Nota-se a sinergia de diversos projetos para a habilitação de um ambiente para um determinado tipo de pesquisa, como o projeto de Grid Computing do Superacelerador de Partículas, onde ambos os projetos EGEE e OSG juntaram forças para a constituição de um ambiente com poder de processamento extremamente impressionante, conforme será 15 National Science Foundation Agência Norte Americana responsável pelo suporte as pesquisas e educação nos campos de ciência e engenharia.

67 65 abordado mais profundamente nessa pesquisa. O modelo de operação do OSG fornece facilidades distribuídas para acesso aos recursos de processamento e armazenamento, apresentando as seguintes características: Proprietários registram seus recursos no OSG. Pesquisadores recebem a permissão de acesso a esses recursos registrando-se em uma ou mais Organizações Virtuais. Administradores registram suas Organizações Virtuais no OSG. Cada recurso e cada Organização Virtual são suportados por um Centro de Suporte determinado no momento do registro. Ressalta-se que uma Organização Virtual corresponde a indivíduos de diversas instituições. As instituições e as Organizações Virtuais são os elementos que fazem parte do OSG Consortium, enquanto os pesquisadores individuais são considerados apenas usuários. Assim que uma Organização Virtual é aprovada e registrada no ambiente do OSG, todos os membros associados e que assinaram a política de utilização (Acceptance Use Policy) são liberados para acessarem os recursos do sistema de Computação em Grade. O middleware do OSG é composto basicamente pela integração do sistema Condor-G com alguns serviços do GLOBUS, mas também pode apresentar integração com alguns outros sistemas para adicionar novas funcionalidades ao seu ambiente. A infra-estrutura do OSG está sendo utilizada por diversos projetos espalhados ao redor do mundo, auxiliando comunidades de pesquisas que necessitam de alta capacidade de processamento para executarem suas aplicações. Projetos científicos sobre Aquecimento Global, Física de Partículas (Superacelerador de Partículas), entre outros, são exemplos de participantes do OSG.

68 66 3. Estado da arte em compartilhamento e trabalhos colaborativos nos ambientes das redes de comunicação Neste capítulo serão estudados três artigos relacionados ao tema da pesquisa para a formulação do estado da arte em compartilhamento e trabalhos colaborativos nos ambientes das redes de comunicação. Silva e Blattmann (2007), referenciados na seção 3.1, tratam dos impactos da Internet, e principalmente da Web 2.0, habilitando novos modelos de produção baseados na colaboração. McGuinness et al. (2006), referenciados na seção 3.2, descrevem a proposta de um mecanismo para o gerenciamento do nível de confiança em conteúdos criados e armazenados em repositórios colaborativos. Benkler (2004), referenciado na seção 3.3, descreve novos modelos de interações coletivas para habilitar modalidades produtivas descentralizadas e eficientes. Inicialmente, será feita uma síntese dos artigos estudados. Após isso, para cada um deles haverá uma análise das suas características em contraste com o tema da dissertação para que os principais pontos que apóiam o objetivo desse trabalho sejam levantados. 3.1 A Colaboração e a interação na Web 2.0 Silva e Blattmann (2007) citam que a Internet tornou-se a principal responsável pela mudança no modelo de organização e acesso aos conteúdos na sociedade da informação. Este cenário proporcionou a habilitação de um ambiente influente para a disseminação da colaboração e inteligência coletiva, principalmente através da interação, troca e armazenamento de informações. A criação da Web foi um dos grandes estímulos para a utilização da Internet como meio de comunicação para trabalhos colaborativos, pois criou serviços capazes de facilitar a troca de informações entre pessoas interessadas no mesmo assunto, mesmo que separadas geograficamente. Atualmente está em evidência o termo Web 2.0, um ambiente que permite aos usuários maior interação e manipulação das informações. Esse termo surgiu durante uma conferência entre as empresas MediaLive e O'Reilly Media, na qual discutiu-se a possibilidade de tornar a Web mais dinâmica, de modo que os

69 67 usuários pudessem participar colaborativamente na criação e edição de conteúdo. A Web 2.0 é uma nova concepção tecnológica descentralizada onde os usuários participam ativamente na criação, seleção e troca de conteúdos disponibilizados em um ambiente aberto, como um simples sítio ou uma aplicação Web sofisticada. O destaque da Web 2.0 é a interação online entre os usuários acessando o mesmo conteúdo, ou seja, permitindo que eles possam compartilhar entre si informações relevantes a um determinado trabalho, pesquisa ou simplesmente disponibilizando um conteúdo de conhecimento geral. Um dos mais evidentes serviços disponibilizados pela Web 2.0 são os sistemas wikis. Silva e Blattmann (2007) citam que o termo wiki foi criado por Ward Cunningham e surgiu da expressão havaiana wiki wiki, que significa rapidez e velocidade. Os autores ainda citam que Cunningham resolveu nomear assim um dos seus sistemas por ser esta a primeira expressão que aprendeu ao chegar ao Havaí, onde foi solicitado que utilizasse o ônibus expresso (wiki wiki). O seu primeiro sistema considerado wiki (Portland Pattern Repository) foi disponibilizado na Web em 1995 e tinha como objetivo desenvolver um ambiente onde os próprios usuários pudessem criar conteúdos compartilhados. Com base no sucesso alcançado por esse projeto, diversas alternativas foram criadas para a construção de textos colaborativamente e também para servir de ferramenta de apoio para a gestão do conhecimento (SILVA; BLATTMANN, 2007). A principal diferença entre wikis e outras ferramentas utilizadas na Internet, como blog e sítios, é principalmente o fato de wiki prover funcionalidades que permitem que os conteúdos possam ser editados e atualizados constantemente, sem a necessidade de uma prévia autorização do autor da versão anterior. Essa característica possibilita a correção de erros e a inserção de novas informações dinamicamente, habilitando um cenário onde não existe um autor proprietário de nenhum texto, podendo o conteúdo ser modificado por qualquer usuário Análise do artigo O artigo em pauta faz uma análise do impacto da Web 2.0 para o surgimento de uma nova forma de produção. É importante destacar que as redes de comunicação são as camadas

70 68 de sustentabilidade para estimular a colaboração e o trabalho coletivo por indivíduos ou grupos espalhados geograficamente, pois permitem uma eficiente comunicação e funcionalidades que apóiam o compartilhamento de recursos. A Internet, em sinergia com a Web 2.0, é uma das principais características de um novo modelo de interação na sociedade da informação. Principalmente através de sistemas wikis, a Web 2.0 disponibiliza serviços que permitem o trabalho colaborativo e coletivo para a criação e melhoria dos conteúdos existentes no ambiente informacional das redes de comunicação. A Web 2.0 foi um dos primeiros ambientes que possibilitou, na comunicação mediada pelo computador, que indivíduos pudessem criar seus conteúdos a partir de conteúdos criados por outras pessoas, fortalecendo assim a idéia de compartilhamento e colaboração. Entretanto, novas tecnologias também estão surgindo, com base na mesma filosofia, para serem aplicadas em outros contextos. A tecnologia de Grid Computing difere-se da Web 2.0 por ter como principal objetivo a integração de recursos computacionais para o estabelecimento de um ambiente de processamento com alta capacidade. Mas é certo que essa tecnologia, em um contexto amplo, segue a mesma filosofia da Web 2.0, principalmente por permitir que os indivíduos possam criar e disponibilizar seus conteúdos em um ambiente compartilhado, valorizando muito o conceito de colaboração. 3.2 A confiança em repositórios colaborativos de informação McGuinness et al. (2006) destacam em seu artigo a Wikipedia como um dos maiores mecanismos wiki disponíveis, uma enciclopédia online que possui mais de novecentos mil autores registrados e mais de três milhões de artigos publicados em diferentes idiomas. A Wikipedia tornou-se um sistema valioso de conteúdos reconhecido mundialmente, principalmente devido ao aumento do número de pessoas citando-o como fonte de informação confiável. Diversos estudos apontam que a Wikipedia é extremamente valiosa para artigos de ciências, embora também existam afirmações de incoerência em determinados artigos. McGuinness et al. (2006) exemplificam esse cenário citando a situação em que um jornalista e um oficial da administração do governo Kennedy afirmaram que a Wikipedia possuía informações incorretas sobre a biografia do presidente americano. Os repositórios colaborativos de informação apresentam uma grande vantagem:

71 69 beneficiam-se da contribuição de uma vasta diversidade de usuários, ou seja, da colaboração dos indivíduos para a geração de novos conteúdos. É certo que existem algumas ameaças presentes no ambiente, como usuários sem conhecimento no assunto, usuários utilizando fontes irrelevantes ou indivíduos agindo de maneira suspeita para prejudicar o meio. O gerenciamento da confiabilidade torna-se um crítico componente no desenvolvimento desses sistemas. Se não houver a presença de qualquer mecanismo de controle de confiança, esses repositórios de informações colaborativas podem encontrar dificuldade em atribuir níveis de coerência. A ausência de um mecanismo de confiabilidade pode acarretar em serviços que provêem somente os conteúdos aos usuários finais, mas não as informações de onde eles foram extraídos. As grandes implementações de sistemas wikis, como a Wikipedia, já estão direcionando esses desafios. Entretanto, atualmente, o nível desejado ainda não foi atingido para que os sistemas alcancem o objetivo de disponibilizar informações sobre a relevância e as fontes dos conteúdos dos artigos. McGuinnes et al. (2006) abordam um modelo de medidas baseado em citações para determinar os níveis de confiabilidade de um artigo. Em muitas situações, o usuário final propende em acreditar nos conteúdos disponibilizados em sítios e blogs quando a fonte citada corresponde a entidades de reputação reconhecida, como um jornal do porte do The New York Times. Essa situação ocorre principalmente quando o autor do blog ou sítio é desconhecido. No cenário da Wikipedia, a situação é semelhante, sendo destacado um algoritmo de classificação da confiabilidade baseado na relação de citações entre entidades. Basicamente, o mecanismo propõe um modelo no qual o número de referências para um termo implicará diretamente em sua relevância e grau de confiabilidade. A proposta de McGuinnes et al. (2006) visa expandir a Wikipedia agregando uma ferramenta de gerenciamento da confiabilidade através de uma nova aba associada aos artigos da enciclopédia. A aba deve ser integrada junto às abas existentes, como article, edit, history e deve ser responsável por disponibilizar os artigos renderizados, baseando-se no modelo de quantidade de citações, de tal maneira que seja possível identificar os fragmentos de textos mais confiáveis que compõem o artigo. McGuinnes et al. (2006) divulgaram um resultado do seu mecanismo, após um experimento aplicado em uma cópia do banco de dados da Wikipedia de 2005, onde foi possível denotar que essa ferramenta de gerenciamento de confiança teve um ótimo

72 70 desempenho, pois marcou como mais confiáveis os featured articles, ou seja, artigos que são revistos e editados por especialistas no assunto. O mesmo mecanismo também apontou os clean-up articles como menos confiáveis, classificação que representa os artigos que geralmente são destacados pelos administradores da Wikipedia como conteúdos com qualidade abaixo do indicado e que necessitam de revisões adicionais Análise do artigo O artigo em pauta traz um estudo sobre o nível de confiança dos conteúdos gerados colaborativamente, onde uma grande quantidade de indivíduos pode adicionar e editar informações em um repositório compartilhado de informações. Este é um desafio que está sempre presente quando a questão envolve compartilhamento e colaboração. No ambiente da Web, por ser um espaço aberto, isso se torna ainda mais difícil de ser endereçado. Já em Grid Computing, por proporcionar um espaço um pouco mais restrito, o gerenciamento da confiança é mais fácil de ser tratado. É comum encontrar projetos de Grid Computing que exigem que as instituições e indivíduos que queiram integrar o seu ambiente tenham que assinar contratos e termos de responsabilidades para obterem acesso a infra-estrutura, aplicações e dados. A maioria dos projetos de Grid Computing encontrada hoje em dia está focada em pesquisas científicas, por isso existe a possibilidade haver um controle sobre as instituições que podem ou não fazer parte deste ambiente. Se no futuro, essa tecnologia for a base para o processamento de informações da sociedade conectada na Internet, talvez o seu desafio de gerenciar a confiança passe a ser semelhante como o que encontramos nos dias de hoje na Web. É importante destacar que já existem alguns projetos de Grid abertos na Internet onde os indivíduos podem facilmente participar. Entretanto, na sua grande maioria, eles utilizam o modelo de Computação Voluntária, ou seja, os indivíduos colaboram de forma passiva apenas compartilhando seus recursos computacionais para ser integrado no ambiente e assim gerar capacidade de processamento, sem a necessidade de terem acesso aos dados e aplicações que estão sendo executadas. Vale ressaltar também que a própria arquitetura descentralizada da tecnologia auxilia a

73 71 tratar os problemas de gerenciamento de confiabilidade. O fato do ambiente não ter um controle centralizado e ser composto por recursos de diferentes instituições, nos quais as informações são armazenadas de forma distribuída por todos eles, influencia em um ambiente mais seguro e transparente, conforme será estudado mais a fundo nessa dissertação. 3.3 A emergência do compartilhamento como modalidade de produção econômica Benkler (2004) cita que o supercomputador mais rápido do mundo e o segundo meio de transporte mais eficiente nos Estados Unidos são habilitados através de um modelo de gerenciamento de recursos que não é totalmente especificado nas economias contemporâneas. A plataforma de computação distribuída baseada na arquitetura de Grid Computing, envolve mais de quatro milhões de voluntários cedendo ciclos ociosos de suas CPUs para habilitar o seu ambiente de processamento. O sistema de transporte baseado em carona corresponde a quase 16% de todas as viagens urbanas dentro do território americano. Ambos os modelos confiam em relações sociais e éticas de compartilhamento para mobilizar e alocar recursos. É importante destacar que nenhuma dessas duas práticas envolve recursos públicos ou recursos financeiros. Os computadores pessoais e os automóveis são bens privados e rivais, do inglês rival goods, o que significa que a sua utilização pode eliminar, ou pelo menos diminuir, a utilização por parte de outros indivíduos. A prática de compartilhamento que envolve esses dois modelos não está limitada a uma comunidade onde os participantes se conhecem; pelo contrário, representam instâncias onde o compartilhamento social é extremamente impessoal, ou ocorre entre entidades sem afiliações definidas. Essa definição caracteriza a confiança total no compartilhamento social através da vontade própria dos voluntários, sem a necessidade de ocorrer qualquer troca financeira. O compartilhamento social está tornando-se uma modalidade comum de produção valiosa nos mais avançados modelos de economia, como informação, educação, cultura, computação e setores de comunicação. Os softwares livres, a computação distribuída e a forma de produção entre pares são exemplos notáveis de uma prática de compartilhamento mensurável e de larga escala. Benkler (2004) ainda sugere que a estrutura de capital distribuído, presente nas

74 72 comunicações contemporâneas e nos sistemas de computação, é a grande responsável pelo aumento da característica de compartilhamento social como modalidade de produção econômica. A diminuição do custo de capital necessário para ações individuais e o avanço das tecnologias também permitiram grande aumento na produção descentralizada, baseada nas relações sociais e não em mercados ou hierarquias. Benkler (2004) apresenta dois estudos de caso sobre compartilhamento: Carpooling que é um sistema baseado em carona para o compartilhamento de assentos disponíveis em automóveis e os projetos de Grid Computing. Os dois estudos de casos, Carpoooling e Grid Computing compartilham quatro principais características em um ambiente colaborativo: 1- Os modelos envolvem práticas de compartilhamento de larga escala entre indivíduos sem relações sociais ou completamente desconhecidos entre eles. 2- Os recursos econômicos compartilhados são privados. 3- A existência de modelos de mercados onde a capacidade excedente dos recursos privados podem ser destacáveis e utilizáveis. 4- O resultado da prática de compartilhamento em ambos os estudos de caso são bens rivais. Com base nas características citadas acima, destaca-se o modelo de Carpooling e Computação Distribuída como exemplos de práticas colaborativas através do compartilhamento, assim como as redes peer-to-peer, a produção entre pares e o modelo de desenvolvimento de softwares livres Análise do artigo No artigo em pauta, Benkler (2004) demonstra as vantagens geradas pelo modelo de produção baseada na colaboração através do compartilhamento de recursos. Foram destacadas também duas grandes práticas colaborativas de sucesso, o Carpooling e Grid Computing, as quais foram constituídas através da colaboração voluntária em larga escala para a produção de produtos e serviços confiáveis. É importante citar que os modelos baseados em compartilhamento podem, em muitas

75 73 vezes, gerar mecanismos produtivos com qualidade superior aos modelos orientados ao mercado. Como exemplo, pode-se citar o Linux, um sistema operacional produzido coletivamente que apresenta características e funcionalidades semelhantes em relação aos sistemas operacionais produzidos pelas grandes indústrias. No estudo de caso sobre Computação Distribuída, Benkler (2004) destaca o projeto de Grid Computing chamado que através da colaboração e do compartilhamento de recursos na Internet tornou-se um dos mais poderosos ambientes de processamento. Vale ressaltar também que foi a partir do trabalho colaborativo que esta tecnologia foi concebida na comunidade científica. No próximo capítulo serão discutidas em mais detalhes as relações de Grid Computing em contraste com a colaboração.

76 74 4. Análise de Grid Computing A tecnologia de Grid Computing foi uma grande quebra de paradigma no modelo de computação distribuída, pois permitiu novas oportunidades de utilização de recursos distribuídos e novas formas de interação em um ambiente informacional. Neste capítulo serão abordadas as vantagens e os impactos da tecnologia de Computação em Grade nos contextos sociais, ambientais e econômicos. A técnica de Estudo de Caso será aplicada para fomentar a dissertação de como a tecnologia pode influenciar positivamente o trabalho colaborativo, a inclusão científica, os novos modelos econômicos e a redução de consumo de recursos energéticos. 4.1 Contexto social A consolidação da Internet, e principalmente da Web como tecnologia de comunicação em tempo real foi um dos grandes saltos para o surgimento de novas formas de interação na sociedade. As redes sociais são responsáveis por uma nova forma de comunicação e troca de informações em abrangência global, permitindo que indivíduos de diversos países possam estabelecer relações entre si. As redes sociais na Internet são valiosas para a sociedade, pois são elas que ajudam a alavancar a criação de novos conteúdos, serviços e produtos. Uma pessoa que não conseguia realizar uma determinada tarefa sozinha pode criar laços, através das redes sociais, com indivíduos que compartilham os mesmos interesses que os seus para executarem as tarefas em conjunto, não importando sua localização geográfica. Assim, é possível notar que as redes sociais na Internet apresentam grande participação para o crescimento e amadurecimento dos trabalhos colaborativos que são encontrados hoje na sociedade, pois são elas que facilitam o estabelecimento de laços sociais entre indivíduos que desejam atuar em busca de um determinado objetivo, seja para a criação de um novo software ou a adição de um novo artigo na wikipedia. É importante citar também que novas tecnologias surgem, a cada dia que passa, para influenciar positivamente o compartilhamento de conteúdo e o trabalho colaborativo. Grid Computing é uma das recentes tecnologias que envolvem os conceitos de coletividade para possibilitar cenários de processamento de dados e compartilhamento de informações nunca antes observados em nenhuma outra tecnologia.

77 75 Indivíduos podem agrupar-se para compartilhar os seus recursos computacionais e assim constituir um ambiente de computação paralela com alta capacidade, o qual também permite que eles compartilhem seus dados, aplicações e resultados. A influência de Grid Computing em relação ao trabalho colaborativo e a inclusão científica será abordada adiante Trabalho colaborativo A tecnologia de Grid Computing apresenta uma arquitetura descentralizada e distribuída, conforme abordado no capítulo dois deste trabalho, característica que fortalece um cenário favorável aos trabalhos colaborativos. A necessidade por um ambiente com alta capacidade de processamento, sem que fosse necessária a aquisição de supercomputadores, foi um dos motivos para que pesquisadores de diversas áreas buscassem o desenvolvimento de um novo sistema distribuído que fosse capaz de integrar a capacidade ociosa de recursos computacionais espalhados geograficamente. Os principais sistemas de Grid Computing existentes no momento são frutos de projetos coletivos de desenvolvimento de software, seja entre instituições de pesquisas, ou entre indivíduos voluntários espalhados ao redor do mundo Entre os principais sistemas de Grid Computing, pode-se destacar o Globus Toolkit, um software open source desenvolvido por uma comunidade de voluntários trabalhando por um mesmo objetivo - construir um sistema distribuído capaz de integrar recursos para gerar um ambiente computacional de larga escala. A participação coletiva é um dos pontos de sucesso de muitos bens tecnológicos, incluindo os sistemas de Computação em Grade. No caso do Globus, a aceitação do sistema foi tão relevante que incentivou novos voluntários a participar da comunidade para melhorar a aplicação existente e desenvolver novas funcionalidades. Globus foi primeiramente constituído como um projeto de software opensource em Desde aquele tempo, o time de desenvolvimento do Globus expandiu-se de poucos indivíduos para uma comunidade distribuída e internacional. Em resposta a esse crescimento, a comunidade Globus (Globus Alliance) estabeleceu em Outubro de 2005 uma nova infraestrutura de desenvolvimento de software e um modelo de governança baseado em meritocracia, os quais juntos tornam mais fácil e transparente o processo de inscrição a comunidade Globus (GLOBUS, 2009).

78 76 O aumento da quantidade de voluntários trabalhando no projeto Globus tornou-o uma das atuais referências na área de Grid Computing. É importante destacar que o conceito de Computação em Grade surgiu, em um primeiro momento, no meio científico de pesquisas, situação em que comunidades estavam preocupadas em solucionar seus problemas de processamento de dados em larga escala, para posteriormente ser adotado como tecnologia promissora pelas grandes empresas desenvolvedoras de sistemas. Com base no levantamento do histórico de Grid Computing, pode-se apontar que esse conceito emergiu da sociedade informacional na busca por um novo paradigma tecnológico, capaz de romper os limites dos supercomputadores da época, sem a necessidade de envolver as grandes indústrias especializadas. Uma revolução tecnológica que teve a sua origem e sua fundamentação no coletivo, com indivíduos motivados a inovar e criar um sistema importante para a sociedade, permitindo que seus cidadãos pudessem realizar trabalhos nunca antes possibilitados por qualquer infra-estrutura computacional. Como diversas outras tecnologias, Grid Computing é um exemplo claro de que um bem é capaz de influenciar e orientar as grandes indústrias, mesmo tendo surgido através da produção não-trivial, sem a orientação de mercados e baseado apenas no coletivo de indivíduos trabalhando por um objetivo comum. Adicionalmente ao modelo de desenvolvimento do seu middleware, baseado no trabalho colaborativo, a tecnologia de Grid Computing também possibilita o que pode ser denominada 2-Ways Collaboration. Esse termo refere-se à capacidade de usufruir da colaboração através do compartilhamento de recursos computacionais para constituir um ambiente com alta capacidade de processamento. Entretanto, é importante destacar que esse mesmo ambiente fornece funcionalidades que impulsionam o trabalho colaborativo devido à sua arquitetura descentralizada, agilizando o modelo de compartilhamento de informações, acesso a dados e a execução de atividades em conjunto. Conforme mencionado, a maioria dos sistemas de Grid Computing é fruto de um trabalho colaborativo e estão prontos para serem implementados com a finalidade de constituir um ambiente computacional com alta capacidade de processamento, principalmente através da integração de recursos computacionais distribuídos geograficamente. Entretanto, um dos grandes desafios dos projetos que utilizam Grid Computing é a alocação de recursos computacionais para constituir uma infra-estrutura com capacidade para processar dados de problemas de larga escala. Dependendo da necessidade do projeto, o

79 77 ambiente de Grid Computing não apresenta uma efetiva funcionalidade se a quantidade de recursos que o compõem for muito baixa. Por exemplo, uma instituição de inclusão digital pode ter em sua infra-estrutura uma coleção de vinte ou trinta recursos computacionais, entre servidores e computadores pessoais, sendo que sua aplicação requer um ambiente computacional referente, no mínimo, a mil servidores para o processamento de suas informações. De acordo com esse cenário, uma possível solução seria a utilização de recursos de entidades parceiras e voluntários simpatizantes com o tema do projeto. Isso é possível devido a Grid Computing apresentar uma característica flexível e abrangente, graças a sua arquitetura e o seu modelo de Organizações Virtuais, o que permite que a integração de recursos não fique atrelada somente ao limite de uma única organização. Essa tecnologia visa à integração de recursos computacionais pertencentes a diversas entidades em diferentes domínios espalhados geograficamente. Os projetos de Grid Computing que obtiveram maiores sucessos foram justamente aqueles que confiaram na colaboração de indivíduos e entidades compartilhando a capacidade ociosa de seus recursos para a constituição de uma infra-estrutura computacional. Conforme já abordado no capítulo três deste trabalho, o projeto é considerado por muitos pesquisadores como um dos programas pioneiros a integrar recursos computacionais pertencentes a diversos domínios, atualmente sendo composto por mais de participantes no mundo todo. Se não houvesse a colaboração por parte dos voluntários, o projeto possivelmente não teria capacidade de processamento suficiente em sua infra-estrutura computacional para tratar a quantidade de informações necessárias, o que poderia levá-lo ao fracasso. É notório destacar o quanto a colaboração é benéfica e agrega valor para as plataformas de Grid Computing, principalmente se considerada a capacidade computacional alcançada através da integração de dispositivos compartilhados por voluntários conectados na Internet. Entretanto, o alto nível de processamento obtido com a Computação em Grade não é a única vantagem da tecnologia, ela também oferece funcionalidades para a execução de aplicações em conjunto e compartilhamento de informações. Conforme citado anteriormente, essa tecnologia possibilita a colaboração em dois caminhos - inicialmente creditando confiança na colaboração coletiva para agregar recursos e

80 78 formar um ambiente computacional com alta capacidade de processamento, o qual passa a fornecer funcionalidades que favorecem o trabalho colaborativo. A possibilidade da Computação em Grade fornecer um ambiente favorável ao trabalho colaborativo está fortemente ligada à característica de sua arquitetura descentralizada, o que permite que seu controle não esteja nas mãos de uma única entidade, mas distribuído por todos os indivíduos que compõem uma determinada Organização Virtual. Não existe apenas uma única definição para Grid Computing. Essa é uma tecnologia que provê uma visão aberta sobre sua arquitetura, que pode ser modelada para constituir um ambiente de acordo com as necessidades de um projeto. O conceito de Organizações Virtuais, conforme citado no capítulo dois, foca a concepção de um grupo de trabalho formado por entidades e usuários interessados no mesmo assunto, permitindo que eles compartilhem seus recursos e aplicações para constituir um ambiente computacional necessário para a execução de suas tarefas. Os problemas que antes eram difíceis de serem resolvidos sozinhos, com a tecnologia de Computação em Grade tornam-se mais fáceis de serem tratados em conjunto com os membros de uma Organização Virtual. Essa situação não está ligada somente a alta capacidade de processamento de informação obtida com essa tecnologia, mas também se relaciona com a possibilidade de pessoas de diferentes países e interessadas no mesmo projeto ingressarem em uma OV para compartilhar a execução de suas aplicações e seus dados. O fator de descentralização é muito importante também para garantir a segurança do ambiente e a transparência das informações, podendo permitir a auto-sobrevivência de uma determinada aplicação. Em Computação em Grade, ao contrário dos sistemas centralizados, é improvável que uma única entidade prejudique toda a infra-estrutura computacional, pois a mesma interfere somente na porção do ambiente correspondente aos seus recursos, o que poderia, dependendo do nível de colaboração da entidade, degradar o desempenho, mas nunca fazer com que ele fosse afetado completamente. Essa característica é evidente em um ambiente de Grid Computing, pois não existe um único ponto de controle centralizado. Se o ambiente é composto por 50 mil servidores e uma entidade X decide se desligar do sistema, o resultado é que somente os recursos pertencentes a X (por exemplo, 10 mil servidores) serão eliminados da infra-estrutura. Entretanto, a tecnologia apresenta funcionalidades para auto-regular o seu ambiente, permitindo que o mesmo con-

81 79 tinue ativo e executando suas tarefas nos dispositivos que ainda fazem parte de sua infra-estrutura (40 mil servidores). Em um sistema centralizado, se o proprietário do ambiente resolvesse desativá-lo, isso impactaria todos os usuários que fazem uso de seus serviços. Entretanto, isso não acontece em Grid Computing, pois o ambiente estará ativo, mesmo com baixíssimo desempenho, até o último participante ativo. Essa situação depende da configuração escolhida para a constituição da infra-estrutura de Computação em Grade. Para exemplificar a situação de um trabalho colaborativo, pode-se destacar um projeto de Grid Computing com foco em renderização de filmes, onde exista um ambiente de processamento de dados constituído através da integração de recursos computacionais distribuídos geograficamente e pertencentes a diversos membros de uma Organização Virtual. Nesse cenário, não há um controle central, mas existe um ambiente onde o processamento ocorre de forma distribuída entre os recursos computacionais de uma OV. Todos os membros de uma OV podem integrar seus recursos ao ambiente para gerar mais capacidade e também podem executar suas aplicações, as quais podem ser compartilhadas com todos os outros membros. De acordo com as características citadas acima, percebe-se que a concepção do conceito de Organização Virtual em um ambiente descentralizado favorece o coletivo, principalmente por disponibilizar todos os recursos distribuídos de forma transparente. Os usuários podem usufruir do ambiente que eles mesmos ajudaram a construir. Um ambiente composto por milhares de dispositivos computacionais pertencentes a diferentes entidades, onde cada qual pode administrar os seus recursos dentro do seu domínio, sem interferir diretamente a funcionalidade final do ambiente como um todo. A colaboração está ligada diretamente a tecnologia de Grid Computing em três maneiras: Os trabalhos colaborativos dos desenvolvedores de software conceberam os principais sistemas de Grid Computing, antes mesmo das indústrias especializadas. A Colaboração está presente para a constituição de uma infra-estrutura de Computação em Grade com capacidade de processamento de larga escala através da integração de recursos computacionais compartilhados.

82 80 A infra-estrutura ativa de Computação em Grade facilita que o coletivo de pessoas, agrupadas em Organizações Virtuais, possam trabalhar compartilhando suas aplicações e dados de maneira transparente e segura. As três afirmações acima reforçam a importância da colaboração para a constituição de um ambiente de Computação em Grade, desde o desenvolvimento do sistema até a integração de recursos para atingir alta capacidade de processamento. Consequentemente, essas características tornam a tecnologia de Grid Computing extremamente importante para ser aplicada em diversos cenários, com destaque para a inclusão científica. A seguir, discorre-se sobre a influência de Grid Computing para proporcionar ambientes computacionais necessários para inúmeros projetos científicos, os quais seriam ineficientes na ausência da tecnologia. Posteriormente, aborda-se o projeto de Grid Computing utilizado pelo experimento do superacelerador de partículas (LHC), um exemplo de sucesso da tecnologia aplicada ao trabalho colaborativo e inclusão científica Inclusão científica As novas tecnologias têm papel fundamental para a evolução da ciência, pois permitiram que pesquisas que antigamente não eram possíveis de serem realizadas, agora passam a existir e também buscar resultados mais apurados e precisos com a utilização de recursos tecnológicos. Destaca-se também que atualmente as pesquisas científicas estão gerando um volume maior de dados, seja pela utilização de dispositivos tecnológicos mais avançados ou apenas em razão do seu escopo. Porém, essa situação acarreta em um novo desafio: Qual ambiente tem capacidade computacional em larga escala para processar um grande volume de dados com baixo custo? Há determinadas pesquisas que precisam de um ambiente computacional com alta capacidade para processar os dados obtidos com o objetivo de tratar informações, executar simulações e até mesmo chegar aos resultados finais. Entretanto, em muitos casos os computadores tradicionais utilizados em laboratórios de pesquisas já não são suficientes para processar de forma eficiente um grande volume de dados, exigindo assim a utilização de servidores com alta capacidade de processamento ou até mesmo supercomputadores

83 81 especializados. Porém, esses recursos computacionais podem custar muito caro ou podem até mesmo não estarem disponíveis no momento requerido para viabilizar uma determinada pesquisa. Esses desafios para obter um ambiente computacional de alta capacidade de processamento com baixo custo e de forma rápida foram os grandes estimuladores para o surgimento da tecnologia de Grid Computing, a qual foi concebida como uma alternativa para driblar o alto custo e as limitações das capacidades dos recursos computacionais nos anos 90. Conforme já abordado nos capítulos anteriores, a tecnologia de Grid Computing tem como principal desafio integrar recursos computacionais distribuídos com o objetivo de constituir um ambiente computacional em larga escala. Em outras palavras, Grid Computing visa à formação de um supercomputador virtual composto pela capacidade excedente de diversos computadores pessoais, servidores ou qualquer outro dispositivo computacional, sem a necessidade de supercomputadores especializados, situação que torna claro a característica de baixo custo da tecnologia. Nos últimos anos Grid Computing ganhou maior evidência na sociedade através do meio científico, principalmente por habilitar um ambiente com capacidade de processamento de dados para atender demandas de pesquisas de larga escala. Hoje em dia já é possível encontrar inúmeros projetos científicos que são realizados exclusivamente graças à utilização de Grid Computing. Se não existisse essa tecnologia, essas pesquisas certamente não teriam condições para executarem suas aplicações. O experimento do superacelerador de partículas, um grande exemplo de pesquisa que depende totalmente dessa tecnologia, será abordado em um estudo de caso adiante. Outro ponto importante é o fato dos recursos que compõem uma infra-estrutura de Grid Computing não precisarem pertencer exclusivamente há um único domínio. Ou seja, o ambiente computacional pode ser composto por recursos de diversas entidades, como instituições de pesquisas, universidades, centro de computações ou até mesmo usuários finais conectados na Internet. O modelo de computação voluntária, abordado no capítulo dois desta dissertação, tem obtido grande aprovação por parte das pesquisas científicas. O projeto lançado oficialmente em maio de 1999, foi um dos grandes marcos de Grid Computing como uma plataforma de computação voluntária composta por recursos compartilhados na Internet. Qual o preço de um supercomputador com a mesma capacidade de processamento do Grid

84 82 Computing do projeto Esta é uma pergunta que demonstra a importância da tecnologia de Grid como a grande impulsionadora de novas pesquisas. Instituições que não têm condições financeiras para montar um ambiente computacional encontram em projetos de Grid Computing a chance de viabilizar suas pesquisas. Seguindo a linha do surgiram outros projetos que utilizam o modelo de computação voluntária como forma de conseguir processar os seus dados. Ou seja, são projetos que não existiriam se não houvesse a tecnologia de Grid Computing e voluntários interessados em compartilhar o tempo ocioso de seus recursos computacionais. Pode-se citar como exemplo algumas pesquisas com importância fundamental para a humanidade, como projetos de investigação de dobramentos de proteínas, projetos de pesquisa contra a AIDS, entre outros. Percebe-se assim que o conceito de colaboração em sinergia com a tecnologia de Grid Computing tem um potencial significante para a sociedade, permitindo que novos projetos de pesquisa sejam criados, que espaços de compartilhamento de dados sejam alavancados e que descobertas científicas sejam realizadas. É importante citar também que a maioria dos projetos de Grid Computing tem como objetivo prover uma infra-estrutura compartilhada por várias pesquisas, graças a sua arquitetura descentralizada. O conceito de Organizações Virtuais também tem sua parcela de importância, principalmente por agrupar e coordenar as entidades que trabalham na mesma pesquisa, seja apenas compartilhando recursos computacionais ou executando aplicações em conjunto. É possível pensar cada Organização Virtual como uma pesquisa dentro de um ambiente de Grid Computing. O World Community Grid (WCG, 2009) é um exemplo de ambiente compartilhado por diversas pesquisas. O projeto tem como objetivo a criação de um ambiente público de computação em grade, com base no modelo de computação voluntária, para ajudar projetos científicos benéficos para a humanidade. O World Community Grid é executado no sistema BOINC e o seu sucesso depende diretamente dos voluntários que compartilham o tempo ocioso dos seus recursos conectados na Internet. O World Community Grid não fornece sua infra-estrutura computacional para apenas uma única pesquisa. Ao contrário, o ambiente é compartilhado por diversos projetos científicos que podem trazer algum benefício para a sociedade. Atualmente são executadas

85 83 pesquisas com foco no combate ao câncer, dengue e AIDS. Há ainda projetos sendo executados com o objetivo de desenvolver modelos climáticos mais exatos para regiões específicas da África. É interessante destacar que o modelo de computação voluntária foi bastante importante para disseminar os benefícios que os projetos científicos podem obter utilizando a tecnologia de Grid Computing. Essa afirmação pode ser justificada pelo fato dos primeiros projetos de sucesso de Grid Computing terem focado na colaboração de voluntários conectados na Internet. Porém, essa tecnologia ganhou evidência nos últimos anos, tornando-se alvo de estudo de pesquisas acadêmicas e também de empresas especializadas. Hoje em dia, é possível encontrar uma gama imensa de projetos que visam à constituição de um ambiente compartilhado de processamento em larga escala entre diversas instituições e universidades. Com a tecnologia de Grid Computing as instituições podem unir forças para alavancar suas pesquisas. Uma determinada instituição que não tenha a quantidade de recursos necessária para processar os seus dados pode juntar-se com outras instituições para habilitar uma infra-estrutura computacional compartilhada, na qual todos os envolvidos colaboram para a sua formação, mas também podem usufruir de sua capacidade. Como exemplo, pode-se citar uma situação onde a universidade A e a universidade B podem criar um acordo para a construção de uma infra-estrutura computacional de Grid Computing apenas utilizando os seus recursos, sem a necessidade da colaboração de usuários conectados na Internet. Existem também diversas iniciativas de projetos que têm como foco habilitar um ambiente comum de computação científica, onde instituições podem firmar acordos para a execução de suas aplicações em um ambiente compartilhado por diversas pesquisas. O projeto EELA-2 é uma iniciativa do EGEE para a América Latina, permitindo que universidades possam participar de um ambiente compartilhado de Grid Computing a partir de acordos firmados entre as partes, seja cooperando com recursos computacionais, aplicações ou mãode-obra, conforme a afirmação abaixo: O projeto EELA está aberto para qualquer organização que queira colaborar. Tornando-se um associado do projeto, seu grupo de pesquisa estará apto a utilizar a infra-estrutura de Grid em produção do EELA-2 para executar aplicações e compartilhar resultados. Além disso, a organização será intitulada para receber qualquer tipo de suporte técnico para integrar os seus recursos computacionais no Grid do EELA-2 ou para disponibilizar e executar as aplicações neste ambiente (EELA, 2008).

86 84 Pode-se observar que a tecnologia de Grid Computing tem proporcionado condições extremamente positivas para a inclusão científica. Primeiro, por permitir a criação de uma infra-estrutura computacional de larga escala para o processamento de um grande volume de dados de forma simples e com baixo custo. Segundo, por todas as partes envolvidas em uma Organização Virtual poderem acessar em conjunto as aplicações e os dados do ambiente, característica que exalta a importância da colaboração para o enriquecimento da ciência. Os projetos de Grid Computing geralmente têm abrangência global, o que permite o envolvimento de instituições e indivíduos de diversos países. As entidades geralmente colaboram com o que têm de melhor, algumas cedendo uma quantidade maior de recursos computacionais, outras fornecendo aplicações e também têm aquelas que atuam diretamente na pesquisa. O importante é notar que as pessoas que estão trabalhando juntas nos projetos, compartilhando o mesmo ambiente informacional, podem pertencer a diversas instituições. Consequentemente, esses indivíduos podem apresentar diferentes perfis e formações díspares (tanto culturais, quanto acadêmicas), situação que pode ser benéfica para a ciência, pois permite a formação de diversas opiniões sobre a pesquisa a partir de diversos pontos de vistas. Essas características deixam evidente que a tecnologia de Grid Computing é uma das novas formas de interação e trocas de informação que impulsionam novos conceitos de inteligência, como a própria inteligência conectiva, características muito importante para o avanço da humanidade e da ciência Estudo de Caso Worldwide LHC Computing Grid Nesta seção discorre-se sobre o projeto do Worldwide LHC Computing Grid (WLCG), a infra-estrutura de Grid Computing do superacelerador de partículas, um dos maiores experimentos científicos da atualidade. A coleta de dados foi efetuada a partir de duas principais fontes: o portal na Internet do projeto (WLCG, 2009), onde estão todos os documentos sobre as instituições envolvidas, informações técnicas, relatórios dos recursos computacionais. Também foi utilizado o documento denominado LHC Grid Fest Media Guide compilado durante o seminário CERN LHC GRID realizado na Suíça em Outubro de 2008 (GRIDTALK, 2008). O objetivo deste estudo de caso é responder como a colaboração teve papel fundamental para possibilitar umas das mais importantes pesquisas na ciência de Física de

87 85 Partículas e quais foram suas consequências e influências na sociedade. Incia-se este estudo de caso com a visão geral do experimento do superacelerador de partículas (LHC), seguido da coleta de dados sobre a sua infra-estrutura computacional baseada em Grid Computing para, enfim, analisar o impacto da colaboração para a formação de seu ambiente informacional Visão geral do LHC O projeto do superacelerador de partículas, também chamado de LHC (Large Hadron Collider), é um dos mais impressionantes experimentos científicos já construídos e tem como objetivo possibilitar novas pesquisas na área de física de partículas. O equipamento do LHC foi construído pelo CERN (European Organization for Nuclear Reseach) e corresponde a um túnel em circunferência de 27 quilômetros na região de Genebra, próximo a fronteira da Suíça com a França. Existem quatro principais detectores de colisões espalhados pelo túnel: o LHC-B, o CMS, o ALICE e o ATLAS, sendo esse último o maior de todos. A função dos detectores é coletar os dados referentes às colisões de partículas que ocorrem dentro do LHC, os quais são enviados para processamento em um ambiente de Grid Computing denominado Worldwide LHC Computing Grid. A Figura 5 ilustra o projeto do túnel do LHC e os seus detectores: Figura 5 O Projeto do Superacelerador de Partículas (LHC, 2009)

88 86 É interessante citar que o experimento do superacelerador de partículas tem a projeção de gerar em torno de 15 Petabytes de dados por ano, os quais devem estar acessíveis para milhares de cientistas ao redor do mundo. Entretanto, o projeto enfrentou um grande desafio para encontrar um ambiente computacional com capacidade suficiente para processar esse volume de dados. A tecnologia mais adequada e a escolhida pelo projeto para servir a sua infra-estrutura computacional foi Grid Computing. Assim, foi iniciado um projeto denominado Worldwide LHC Computing Grid (WLCG) para o estabelecimento de um ambiente computacional que tivesse abrangência global e que fosse possível envolver a colaboração de diversas instituições de pesquisas e universidades. A missão do WLCG é a construção de uma infra-estrutura de Grid Computing capaz de integrar recursos de diversas instituições para o armazenamento e processamento de dados extraídos do LHC, os quais são compartilhados com a comunidade de pesquisa. A seguir, serão coletados dados importantes sobre o projeto do WLCG para posterior análise de como o conceito de colaboração e a tecnologia de Grid Computing têm papeis fundamentais para o sucesso do projeto do LHC, e consequentemente para a sociedade científica Coleta de Dados O projeto do Worldwide LHC Computing Grid estabeleceu uma infra-estrutura global e com alta capacidade de processamento, composta por mais de 140 centros de computação em mais de 33 países para prover acesso aos dados do LHC para mais de sete mil cientistas ao redor do mundo (LHCGRIDFEST, 2008). O CERN investiu aproximadamente 100 milhões de Euros até o ano de 2008 em pessoal e material para a construção do WLCG, recursos financeiros que são provenientes do governo nacional da Suíça e também da União Européia. Entretanto, estima-se que a participação do CERN corresponde somente a 20% do investimento total para a construção da infra-estrutura computacional do WLCG (LHCGRIDFEST, 2008).

89 87 Gráfico 1 Investimento no WLCG até o ano de 2008 É importante perceber que a colaboração financeira das outras instituições foi de extrema importância para que o WLCG pudesse alcançar fundos necessários para a constituição de um ambiente computacional com a quantidade indicada de recursos para atender a demanda de processamento advinda do LHC. Basicamente, cada instituição participante é responsável por seus gastos com o projeto, permitindo que o custo total fosse distribuído entre todos os envolvidos. O projeto do WLCG organizou o seu ambiente computacional em camadas para facilitar a integração de recursos e a configuração de troca de dados entre as entidades participantes do projeto. Assim, a infra-estrutura do WLCG é composta de três principais camadas. A primeira camada (Tier-0) corresponde ao centro de computação do CERN, o qual é responsável por armazenar todos os dados recebidos do experimento do LHC e enviar os mesmos, baseado nas Organizações Virtuais, para instituições da segunda camada (Tier-1). A segunda camada (Tier-1) é composta por onze sítios de computação espalhados ao redor do mundo. Todos esses sítios são de extrema importância para o WLCG, possuem conexão dedicada com o CERN e também são os responsáveis pela transferência de dados para outros sítios de computação da terceira camada (Tier-2). A Tabela 1 lista os onze sítios que compõem a segunda camada (Tier-1) do projeto do WLCG:

90 88 Localidade Canadá Alemanha Espanha França Itália Países Nórdicos Holanda Taipei Reino Unido Estados Unidos Estados Unidos Sítio TRIUMF Karlsruhe Institute of Technology Port d'informació Científica(PIC) IN2P3 - Institut national de physique nucléaire et de physique des particules INFN Istituto Nazionale di Fisica Nucleare Nordic Datagrid Facility NIKHEF - Nationaal instituut voor subatomaire fysica ASCG GridPP UK Computing for Particle Physics Fermilab RACF Computing Facility Tabela 1 Sítios de computação da segunda camada Tier-1 (WLCG, 2009) Os sítios da terceira camada (Tier-2) são associados de acordo com a proximidade geográfica a um sítio de nível superior (Tier-1), o qual é responsável por transferir os dados de acordo com o modelo de participação nas Organizações Virtuais. Os sítios da terceira camada armazenam os dados recebidos e alimentam os laboratórios de física de partículas para que os cientistas possam analisar os dados do LHC a partir de seus próprios ambientes informacionais. Estima-se que o WLCG possibilitará acesso aos dados do LHC para aproximadamente sete mil cientistas. A terceira camada do WLCG é composta por mais de 140 sítios agrupados em 60 federações que cobrem a Alemanha, Austrália, Áustria, Bélgica, Canadá, China, Dinamarca, Eslovênia, Espanha, Estados Unidos da América, Estônia, Finlândia, França, Holanda, Hungria, Itália, Índia, Israel, Japão, Noruega, Paquistão, Polônia, Portugal, Reino Unido, República da Coréia, República Tcheca, Romênia, Rússia, Suíça, Suécia, Taipei e Ucrânia. É importante destacar que os dois principais projetos de Grid Computing citados nesta dissertação, o EGEE e o OSG, também fazem parte do WLCG. O Brasil participa do projeto desde 2006, entretanto não é reconhecido pelo CERN como colaborador. Em Abril de 2009 a FAPESP enviou um memorando de entendimento para formalizar a participação de pesquisadores do país no Worldwide LHC Grid Computing (UNESP, 2009). Vale ressaltar que a infra-estrutura do Worldwide LHC Grid Computing proporciona um dos ambientes computacionais com maior capacidade de processamento na atualidade. O

91 89 WLCG já foi responsável pela execução de aproximadamente 44 milhões de Jobs em 2007 e mais de 65 milhões em Entretanto, estima-se que a quantidade que o WLCG deverá processar pode chegar a 500 mil Jobs diários quando o LHC estiver em atividade por completo. Com base nesses dados é possível fazer uma projeção do aumento do número de Jobs a serem processados a partir do ano de 2009, conforme o Gráfico 2: Gráfico 2 Projeção da quantidade de Jobs Percebe-se com base no Gráfico 2 que a quantidade de Jobs apresenta um crescimento expressivo ao longo do tempo, situação que pode, consequentemente, demandar maior utilização dos recursos computacionais que compõem o WCLG, guiando o projeto a uma eminente expansão de sua infra-estrutura. A Tabela 2 está populada com os dados referentes ao total de recursos de CPU, espaço de armazenamento em disco e espaço de armazenamento em fita que são requeridos para os próximos anos de acordo com o WLCG (2009). Os recursos de CPU utilizam a métrica de capacidade KSI2K, o qual corresponde a milhares de unidades da métrica de CPU SPECint Já os recursos de armazenamento utilizam a métrica de Terabyte. CPU (KSI2K) Disco (Tbytes) Fita (Tbytes) Tabela 2 Projeção da quantidade total de recursos O foco desta dissertação não é mensurar o poder computacional do WLCG, porém o 16 SPECint2000 É um especificação computacional baseada em benchmarking de processadores.

92 90 que se pretende mostrar é a crescente demanda por recursos computacionais ao longo dos anos, para que posteriormente seja possível analisar a colaboração de cada camada (Tier-0, Tier-1 e Tier-2) para o projeto. A Tabela 2 mostra a quantidade total de recursos que é requerida pelo projeto do WLCG para alcançar nível aceitável de processamento no ambiente de Grid Computing, porém não cita a quantidade de recursos cedida por cada camada. Já os Gráficos 3, 4 e 5 demonstram, com base em dados de relatórios de recursos disponibilizados no portal do WLCG (2009), a colaboração de cada camada para atingir a quantidade total de recursos especificada para cada ano. O Gráfico 3 demonstra a participação de Tier-1, Tier-2 e Tier-3, através do compartilhamento de CPUs, para constituição da infraestrutura global do LHC. Gráfico 3 Projeção de recursos de CPU por camada Com base no Gráfico 3, percebe-se que o CERN (Tier-0) é a camada que tem a projeção para contribuir com menos recursos para os próximos anos. Mesmo sendo a instituição fundadora do projeto, o CERN conta com forte colaboração tanto dos sítios de processamento da segunda camada (Tier-1) quanto da terceira camada (Tier-2) para habilitar um ambiente com alta capacidade de processamento. O gráfico 4 demonstra, seguindo a mesma linha do Gráfico 3, a quantidade de espaço para armazenamento de disco correspondente com cada camada.

93 91 Gráfico 4 Pojeção de recursos de armazenamento em disco por camada Com base no Gráfico 4, é possível destacar que a colaboração de espaço de armazenamento esperada para os próximos anos também é muito maior para segunda camada (Tier-1) e terceira camada (Tier-2) do que para o próprio CERN. Mesmo o sítio do Tier-0 sendo o responsável por receber todos os dados do LHC e armazená-los para posterior envio aos sítios da segunda camada (Tier-1), nota-se que a maioria dos sítios dos Tier-1 e Tier-2 também poderão receber os mesmos dados para que seus cientistas possam fazer suas pesquisas, aumentando a capacidade de armazenamento em disco por toda a infra-estrutura do WLCG. O Gráfico 5 difere dos gráficos anteriores pelo fato de contemplar somente o CERN (Tier-0) e os sítios da segunda camada (Tier-1). Isso ocorre pelo fato do armazenamento em fita ser utilizado basicamente para backup, ou seja, quando os dados estão sendo processados por aplicações eles são armazenados em disco (conforme visto no Gráfico 4) e após o seu uso podem ser gravados em fitas. É importante lembrar que os sítios do Tier-0 e Tier-1 formam a estrutura essencial do WLCG, principalmente por serem os responsáveis pelo préprocessamento dos dados e também por enviá-los para todos os envolvidos no projeto. Os sítios da segunda camada têm acordos diferenciados com o CERN para a participação no WLCG, o que pode acarretar em algumas obrigações específicas aplicadas para eles, como por exemplo, garantir uma cópia de segurança dos dados do projeto.

94 92 Gráfico 5 Projeção de recursos de armazenamento em fita por camada Com base no Gráfico 5, percebe-se que o CERN contribui com menos da metade da capacidade total de armazenamento em fita, sendo que a grande parte da colaboração está distribuída entre os sítios do Tier-1. No geral, é possível destacar que a maior parte da capacidade de processamento e armazenamento do WLCG é proveniente da colaboração dos sítios da segunda (Tier-1) e terceira camada (Tier-2), que juntos correspondem a mais de 140 centros de computação ao redor do mundo. Adicionalmente ao WLCG, o projeto do LHC também utiliza um ambiente baseado no modelo de computação voluntária. O (2009) é uma iniciativa que possibilita que pessoas possam colaborar com o projeto do LHC a partir de suas casas, cedendo a capacidade excedente das suas máquinas para processamento de dados do superacelerador de partículas. Esse projeto está atualmente sendo executado na plataforma BOINC. O diferencia-se do WLCG por ser um ambiente aberto na Internet constituído de voluntários ao redor do mundo. Sendo assim, esse projeto tem como objetivo principal o processamento de tarefas que exigem alto poder de processamento, mas uma taxa relativamente baixa de transferência. O tornou-se a infra-estrutura para a execução de um programa denominado SixTrack, o qual simula o percursso de partículas ao redor do LHC para o estudo da estabilidade de suas órbitas. O SixTrack foi a primeira aplicação escolhida a ser executado no ambiente de computação voluntária por requerer uma taxa relativamente baixa de entrada e saída de dados, e também por exigir alto nível de

95 93 processamento. Voltando a abordar o projeto do WLCG (2009), foi visto até o momento que a colaboração entre todas as entidades envolvidas para a constituição da infra-estrutura de Grid Computing do projeto é fundamental para o seu sucesso. As instituições compartilham seus recursos para habilitar um ambiente computacional de larga escala com capacidade suficiente para processar os dados do LHC. Entretanto, é importante destacar que essas mesmas entidades também se agrupam em Organizações Virtuais para terem acesso aos dados, característica que ajuda a organizar o ambiente informacional, ditando o que cada uma pode acessar e o que pode ser executado no WLCG. O WLCG é composto por diversas Organizações Virtuais, entretanto serão destacadas nesta dissertação somente aquelas que são afiliadas ao projeto científico do LHC: OV ALICE ATLAS CMS DTEAM LHCb SixTrack Afiliação LHC ALICE experimento ATLAS experimento CMS experimento Grupo de deployment do LCG LHCb experimento Single Particle Tracking Code Tabela 3 Organizações Virtuais filiadas ao LHC (WLCG, 2009) Conforme citado anteriormente, o projeto do LHC é composto de quatro principais detectores que geram dados diferentes das colisões que acontecem no LHC. O conceito de OV foi utilizado no WLCG para organizar os dados gerados por cada detector com o objetivo de garantir a segurança e a transparência do ambiente informacional. De acordo com a Tabela 3, percebe-se que para cada coletor existe uma Organização Virtual, ou seja, um meio de isolar os dados para que somente aqueles que têm permissão possam acessá-los, mesmo sendo disponibilizados em uma infra-estrutura compartilhada. Ainda existe uma OV para o SixTrack e também outra para o time de deployment do WLCG Análise Incia-se a análise do WLCG com base em no principal desafio que influenciou o CERN a adotar a tecnologia de Grid Computing para a construção de sua infra-estrutura

96 94 computacional: O alto custo do projeto. Grid Computing teve um papel importante para adequar o modelo de investimento financeiro para habilitação do projeto WLCG. Conforme abordado anteriormente, o CERN investiu em torno de 100 milhões de Euros em materiais e recursos humanos para a construção da infra-estrutura computacional do LHC. Entretanto, esse investimento corresponde a somente 20% do total do custo do projeto, sendo que as outras instituições que fazem parte do projeto foram responsáveis por seus próprios investimentos, que somados correspondem ao custo total do WLCG. É importante notar que Grid Computing é uma tecnologia que fornece eficientes funcionalidades para este tipo de modelo de investimento, permitindo que inúmeras instituições possam construir em conjunto um ambiente computacional compartilhado, e que o seu investimento total seja distribuído por todos os participantes. Embora o CERN seja o fundador do projeto, é notório que sozinho não teria condições financeiras de habilitar um ambiente computacional com a capacidade necessária para o processamento dos dados do LHC. Estima-se que o experimento possa gerar em torno de 15 Petabytes por ano, e que essa quantidade possa aumentar ao longo do tempo. Assim, somente uma infra-estrutura de larga escala e com alta capacidade escalável poderia processar esses dados com eficiência, situação que corresponde a um alto custo de investimento, tanto em recursos computacionais como também em pessoal especializado. O CERN contou com a ajuda de mais de 140 instituições para a construção do WLCG, considerado um dos ambientes computacionais com mais poder de processamento na atualidade. O WLCG é uma infra-estrutura de Grid Computing que integra recursos computacionais de universidades, centros de computação, instituições de pesquisas espalhados ao redor do mundo. A maioria dos envolvidos na construção do WLCG colabora através do compartilhamento de recursos computacionais e também do fornecimento de mãode-obra especializada. É importante destacar que a capacidade de processamento do WLCG é proveniente da colaboração de cada entidade envolvida no projeto. Conforme visto no Gráfico 3, a segunda camada (Tier-1) e a terceira camada (Tier-2) são os grandes responsáveis pelo nível de processamento do ambiente, uma vez que são os maiores colaboradores de recursos de CPU. A mesma situação também pode ser observada para o espaço de armazenamento em disco. Vale ressaltar que a primeira camada (Tier-0) corresponde apenas ao CERN, enquanto

97 95 a segunda camada corresponde a 11 instituições com link dedicado ao CERN e a terceira camada é composta por mais de 140 sítios de computação ao redor do mundo. A transferência de dados inicia-se no CERN, que os envia para os sítios da segunda camada, que por sua vez são responsáveis por abastecer os sítios da terceira camada. Percebe-se assim uma estrutura de confiança baseada em hierarquia entre todas as camadas. O CERN (Tier-0) é a camada principal da estrutura do WLCG, pois é o responsável por receber os dados gerados pelo LHC, efetuar o processamento inicial, enviá-los para os sítios da segunda camada (Tier-1) e armazená-los para propósito de backup. O CERN tem uma importância fundamental para o funcionamento do WLCG, pois se seu sítio de computação estiver fora do ar, nenhum outro sítio das outras camadas receberão novos dados. Já os sítios da segunda camada são responsáveis por receber os dados do CERN, analisá-los de forma intensiva e também oferecer suporte regional para os sítios da terceira camada (Tier-2). Geralmente os sítios de terceira camada são associados, baseando-se em proximidade geográfica, a um sítio de segunda camada, o qual é responsável pela transferência dos dados necessários de acordo com o modelo de Organizações Virtuais. É perceptível que nessa situação o impacto de um problema causado em qualquer sítio da segunda camada é bastante preocupante, pois uma situação de emergência colocaria o próprio sítio de segunda camada e todos os seus respectivos sítios de terceira camada em estado de alerta. Entretanto, é importante citar que o ambiente do WLCG continuaria funcionando com base nos outros sítios de segunda e terceira camada. Em uma configuração de Grid Computing baseada totalmente na descentralização, onde um sítio não depende do outro, um problema que ocorresse em uma determinada localidade teria um impacto ainda menor. Essa característica é importante para ressaltar questões como segurança e transparência em uma infra-estrutura de Grid Computing. No projeto do WLCG, o qual utiliza uma configuração em camadas, percebe-se que nem mesmo o CERN (Tier-0) tem controle absoluto do ambiente informacional. O CERN pode afetar o ambiente apenas não enviando novos dados, porém aqueles que já foram transferidos estão em poder de inúmeras instituições ao redor do mundo. Foi visto até o momento que a colaboração é um fator importante para o projeto do WLCG para a constituição de sua infra-estrutura computacional. Entretanto, conforme foi destacado anteriormente, Grid Computing favorece o 2-Ways Collaboration, ou seja, os

98 96 envolvidos no projeto colaboram inicialmente através do compartilhamento de seus recursos computacionais para habilitar um ambiente de larga escala, o qual fornece funcionalidades para o trabalho colaborativo, execução de aplicações em conjunto e compartilhamento de dados de forma transparente, principalmente devido à arquitetura descentralizada da tecnologia. O projeto do WLCG tem o objetivo de prover os dados gerados pelo LHC para mais de sete mil cientistas pertencentes a diferentes entidades, as quais podem estar associadas a uma, ou mais, Organizações Virtuais. É importante citar que o modelo de OV tem papel importante no WLCG para organizar o acesso aos dados, trazendo maior confiabilidade e confiança para o ambiente colaborativo. Assim, uma instituição que participa apenas do experimento ALICE (consequentemente é associada à OV ALICE), não poderá receber dados provenientes do experimento ATLAS, mesmo ambos os experimentos estarem disponibilizando seus dados na mesma infra-estrutura. Destaca-se também que o WLCG desempenhou uma função interessante para a inclusão científica do projeto do LHC. Primeiro, esse projeto tornou possível a criação de um ambiente computacional de larga escala e com custo distribuído, o que favoreceu o investimento a partir de diversas fontes. Segundo, o WLCG permite que as instituições de pesquisas que não tinham a possibilidade de efetuar pesquisas na área de físicas de partículas, principalmente de uma riqueza tão abrangente como a do LHC, possam participar ativamente de um dos maiores experimentos científicos da humanidade, seja apenas acessando os dados, executando aplicações ou até mesmo compartilhando resultados. Basicamente, o que o WLCG proporciona é um ambiente de trabalho compartilhado por cientistas espalhados por todo o globo terrestre. Os cientistas do CERN podem trabalhar em conjunto com cientistas do Japão, Índia, Estados Unidos, e Brasil, por exemplo. Onde cada instituição tem um papel a desempenhar para contribuir com uma parcela significante para o projeto, e que todos juntos possam tornar a grande descoberta da humanidade uma realidade. Até mesmo os cientistas individuais podem ter acesso a esse ambiente através de recursos de uma quarta camada (Tier-3), que pode ser constituída de servidores de um departamento de uma universidade ou até mesmos de um simples computador pessoal. Com base na análise das características do WLCG, pode-se (PODEM-SE) destacar algumas vantagens da tecnologia de Grid Computing:

99 97 Múltiplas cópias de dados podem estar armazenadas em diferentes sítios de computação, garantindo assim acesso para todos os cientistas envolvidos independentemente de suas localizações geográficas. Aperfeiçoamento da utilização da capacidade excedente de recursos computacionais, tornando-os mais eficientes. Redução dos pontos únicos de falha no ambiente. O custo de operação e manutenção é distribuído por todos os envolvidos, onde cada um é responsável por seus equipamentos, mas todos juntos colaboram para o objetivo global. Pesquisadores e cientistas não precisam deixar os seus países para participar do projeto, uma vez que os dados estarão disponíveis em seus recursos computacionais. A comunidade é beneficiada com o surgimento de novas tecnologias que favorecem a redução do custo e também o consumo de energia. A colaboração é o fundamento do projeto do WLCG, e não está englobando apenas as entidades científicas que fazem parte dos projetos. Há indústrias que também apóiam o projeto ajudando os cientistas do CERN a desenvolver novas tecnologias e também melhorar as já existentes. Inclusive, existem alguns produtos vendidos no mercado que são frutos de esforços do projeto do WLCG. O projeto CERN Openlab (2009) tem foco na contribuição de parceiros de indústrias especializadas, como Intel, Oracle e HP. Essa situação fortalece o cenário de que a colaboração pode ditar o desenvolvimento de novos produtos, tanto nas comunidades sociais, como também nas indústrias especializadas Resultados e contribuições O projeto do superacelerador de partículas é, apoiado pela infra-estrutura do WLCG, um exemplo dos benefícios da colaboração na sociedade. Anteriormente, as instituições tentavam proteger as suas pesquisas para que fossem exclusivas. Entretanto, esse cenário está sofrendo fortes reformulações. Há algum tempo já se pode observar um cenário maior de ajuda recíproca e troca de informações entre as entidades científicas. O projeto do LHC é um exemplo notável do impacto da colaboração para a sociedade,

100 98 pois essa pesquisa busca responder perguntas que sempre foram destaque no meio científico, e consequentemente também na sociedade. É a busca por uma grande descoberta na ciência. E o mais importante é que essa pesquisa só será possível devido à colaboração entre várias instituições. O CERN não quer proteger as grandes descobertas ou tê-las como exclusividade. Pelo contrário, o CERN só tornou possível o seu projeto devido à colaboração de outras instituições, sendo assim, nada mais justo do que compartilhar o seu ambiente informacional para que todos trabalhem em conjunto na busca da evolução da ciência. É importante também destacar que o sucesso do projeto do WLCG vem guiando novas oportunidades inovadoras da utilização de Grid Computing ao redor do mundo, como a luta contra determinadas doenças, pesquisas sobre mudança climática, poluição do mar, entre outras. Qualquer ciência que requer intensiva simulação ou cálculos pode se beneficiar de Grid Computing. Os benefícios de Grid Computing não se limitam apenas ao contexto científico, embora o mesmo tenha possibilitado o surgimento de novas pesquisas. Essa tecnologia demonstra potencial para tornar-se algo de extremo valor para a sociedade informacional conectada, permitindo que através da colaboração um novo ambiente de alto nível de processamento seja provisionado com baixo custo, permitindo assim que novos projetos sociais sejam criados, principalmente aqueles focados em inclusão digital. Os ambientes de Grid Computing também tornam possíveis a produção de produtos e serviços que antes estavam restritos apenas as grandes indústrias por necessitar a utilização de supercomputadores para determinadas tarefas, como a renderização de um filme, por exemplo. Entretanto, com Grid Computing, uma comunidade torna-se capaz de habilitar um ambiente computacional para geração de qualquer bem que exija em seu processo produtivo alto nível de processamento computacional. Na próxima seção, discorre-se sobre o impacto de Grid Computing para o meioambiente, como esta tecnologia pode ser benéfica para a redução de consumo de energia e também como pode servir de infra-estrutura para pesquisas focadas na proteção ambiental. 4.2 Contexto Ambiental Hoje em dia, uma das principais preocupações da sociedade está relacionada ao meio-

101 99 ambiente. Cientistas, pesquisadores e ativistas estão sempre em busca de alternativas para que possamos diminuir o consumo de recursos naturais sem que haja um grande impacto na vida das pessoas. A energia elétrica é um dos elementos essenciais para a humanidade, o qual exige atenção especial para que seja possível evitar desperdícios durante a sua utilização. Na realidade, pode-se evitar o consumo excessivo de energia elétrica em várias situações do cotidiano, como apagar a luz ao sair de um recinto, desligar os aparelhos eletrônicos que não estiverem em uso, entre outras atitudes fáceis de serem notadas no dia-adia. Entretanto, existem cenários mais complexos de consumo de recursos energéticos em larga escala, os quais geralmente são difíceis de serem mensurados. Como exemplo, pode-se citar as infra-estruturas tecnológicas repletas de dispositivos computacionais, os quais consomem energia sem muitas vezes estarem produzindo em sua capacidade máxima. É interessante citar que a tecnologia da informação apresenta um papel de destaque nesta situação, pois é parte do problema e ao mesmo tempo a chave para solucioná-lo. Por esta razão, surgiu nos últimos anos um conceito denominado TI Verde (Green IT), o qual tem enfoque em estudos e práticas de como usar recursos computacionais de forma eficiente. Este é um conceito completo e aborda a forma de melhor utilizar as tecnologias a partir de diversas iniciativas, como reduzir o uso de materiais perigosos e poluentes para a fabricação de produtos, promover a reciclagem ou garantir a biodegrabilidade dos mesmos e também buscar eficiência no consumo de energia durante todo o seu ciclo de vida. O conceito de TI Verde teve sua origem com a concepção de um projeto da agência de proteção ambiental dos Estados Unidos (U.S. Environmental Protection Agency) chamado Energy Star. Basicamente, este projeto estava focado em promover iniciativas de energia eficiente para monitores, equipamentos de controle climático e demais tecnologias. O seu resultado foi bastante surpreendente e correspondeu à adoção do modo de espera (sleep mode) por diversos produtos no mercado. O objetivo desta dissertação não é o estudo a fundo do conceito de Green IT e todas as suas derivantes. Porém, o que se espera é salientar os impactos e as vantagens da utilização de energia de forma adequada, principalmente por parte das tecnologias da informação. O portal GreenIT (2009) estima que a participação da tecnologia da informação na emissão global de carbono corresponde, em média, entre 2% e 2.5% do total mundial, sendo que esse valor pode chegar entre 5% a 6% em países mais desenvolvidos. A mesma fonte

102 100 também cita, com base em um relatório do McKinsey17, que esses dados podem triplicar no período correspondente entre os anos 2002 e Entretanto, o Gartner (2006) cita que os custos de energia compreendem em média menos de 10% do orçamento total de TI nas organizações, mas que este nível pode chegar a 50% nos próximos anos. Essa situação de aumento no custo de energia apresenta uma forma difícil de ser gerenciada, causando certos desafios para os CIOs18. Ainda segundo o Gartner (2006), a legislação com foco no controle de energia é eminente tanto nos Estados Unidos quanto na União Européia, cenário que pode possibilitar punição de organizações com data centers de larga escala que não possuem medição e gerenciamento do seu consumo de energia. É importante também considerar a possibilidade que o crescimento de ações por parte de campanhas com foco na proteção dos recursos naturais pode influenciar os consumidores (empresas, governos e pessoas físicas) a levantar estas questões na hora de escolher os fornecedores de seus produtos, podendo este cenário apresentar impactos de curto prazo na rentabilidade de organizações que não estão tomando medidas que visam redução excessiva no consumo de recursos naturais. Como exemplo dessa situação, GreenIT (2009) aborda o programa dos Estados Unidos chamado Federal Eletronics Challenge (FEC), que tem como objetivo incentivar as agências federais a adquirir preferencialmente produtos eletrônicos que apresentam características positivas em relação ao meio-ambiente e também descartar os produtos obsoletos em ambientes adequados e seguros. Perante todos esses desafios e também obrigações impostas, as organizações de TI precisam tomar algumas ações em relação ao planejamento dos seus data centers para garantir um melhor aproveitamento da utilização dos recursos energéticos, bem como garantir o seu consumo escalável de acordo com o seu crescimento. O maior desafio que se pode encontrar nas tecnologias da informação está relacionado à sua infra-estrutura. O que ocorre é que atualmente existe uma grande quantidade de recursos computacionais ociosos, como servidores, computadores pessoais e periféricos que estão consumindo energia muitas vezes sem ser utilizados. Algumas tecnologias surgiram motivadas por essa situação e tem como objetivo 17 McKinsey Empresa de consultoria estratégica que tem como clientes empresas líderes em diversificados setores. 18 CIO (Chief Information Officer) Nome dado ao cargo do responsável pelo ambiente das tecnologias da informação de uma determinada organização.

103 101 aperfeiçoar a configuração da quantidade de recursos necessários para atender uma determinada demanda, aumentando assim a utilização da capacidade de cada dispositivo e diminuindo o numero total de equipamentos, e consequentemente o gasto de energia. Grid Computing tem apresentado excelentes resultados como tecnologia para aperfeiçoar a utilização em infra-estruturas computacionais complexas, as quais possuem uma grande quantidade de servidores. Conforme já visto nos capítulos anteriores, Grid Computing tem como característica extrair o máximo da capacidade de cada recurso para habilitar um ambiente de alto poder computacional. Através da implementação dessa tecnologia em um data center, pode-se alcançar como resultado a diminuição de consumo de energia, uma vez que foram mantidas somente as máquinas que apresentam nível de utilização aceitável para o ambiente, eliminando os recursos ociosos. É importante relembrar também que essa é uma tecnologia que fomenta um ambiente computacional escalável, ou seja, consegue gerenciar o crescimento de sua demanda através da adição de recursos computacionais adicionais, fator extremamente positivo para o controle do consumo de energia. Em outras palavras, Grid Computing apresenta-se como uma tecnologia favorável para a economia de recursos energéticos por manter um ambiente computacional conciso, ou seja, (QUE) somente utiliza um número de máquinas (NECESSÁRIAS) para manter o nível de processamento exigido em um data center para atender uma determinada demanda, eliminando qualquer recurso computacional que apresenta ociosidade, reduzindo assim o consumo de energia. Adicionalmente à aplicação de Grid Computing em uma infra-estrutura de um data center, essa tecnologia também é importante para tornar mais eficiente o consumo de energia por parte dos computadores pessoais. Na verdade, Grid Computing torna os recursos com baixa utilização conectados na Internet, em dispositivos produtivos através do modelo de computação voluntária, sem ter um grande impacto no consumo de energia elétrica. É importante ressaltar que os recursos computacionais dos usuários finais não precisam estar ativos exclusivamente para servir um ambiente de Grid Computing, mas eles podem ser utilizados por uma aplicação do estilo de computação voluntária quando o mesmo apresentar baixa utilização. Um exemplo fácil de ser encontrado nos dias de hoje são computadores pessoais que ficam ligados apenas para o download de músicas e filmes, com nível de processamento extremamente baixo, enquanto poderiam ser utilizados para servir uma

104 102 aplicação de um projeto científico. Entretanto, os benefícios de Grid Computing em relação ao meio-ambiente não estão restritos apenas a esses dois cenários consumo de energia mais eficiente em data centers e computadores pessoais conectados à Internet. Conforme já visto anteriormente, essa tecnologia também tem potencial para geração de um ambiente compartilhado de alto processamento, característica importante para apoiar o trabalho colaborativo. Assim, é possível encontrar inúmeros projetos com foco na proteção de recursos naturais e também pesquisas climáticas que utilizam Grid Computing como a forma de criar um ambiente de trabalho comum entre diversas entidades. O projeto Clean Energy (HARVARD, 2009) é uma iniciativa com foco em pesquisas na busca de novos materiais para a próxima geração de células solares e também dispositivos de armazenamento de energia. Utiliza um ambiente de Grid Computing baseado no modelo de computação voluntária (também é integrante do World Community Grid), ou seja, qualquer pessoa interessada no projeto pode ceder a capacidade excedente de suas máquinas para a busca de uma fonte mais eficiente de geração de energia. A aplicação de Grid Computing no projeto Clean Energy permite que os pesquisadores possam calcular as propriedades eletrônicas de mais de dez mil materiais orgânicos (um número extremamente superior ao que poderia ser testado em um laboratório), e assim determinar quais são os mais indicados para o desenvolvimento de uma nova tecnologia de energia solar. O projeto Climateprediction (2009) é uma pesquisa focada na produção de predições do clima no planeta terra até 2080 e também na verificação da exatidão de modelos climáticos existentes. A mudança climática é um assunto de importância global, podendo afetar a produção de alimentos, ecossistemas, os recursos de águas, a demanda por energia entre outros pontos. Algumas pesquisas sugerem que a terra passará por um aquecimento global de impacto nos próximos anos. O Climaprediction (2009) tem como objetivo investigar com afinco e trazer resultados sobre o que realmente pode-se esperar em relação ao aquecimento global. Para isso, o projeto necessita de um ambiente computacional de larga escala para o processamento de seus dados e execução de suas simulações. A plataforma BOINC foi a escolhida para prover um ambiente de Grid Computing orientado ao modelo de computação voluntária. O projeto também criou um portal onde todos os resultados são compartilhados

105 103 com a comunidade interessada na pesquisa. Em suma, Grid Computing apresenta benefícios em duas vertentes para o meio ambiente, permitindo consumo de energia mais eficiente através do aperfeiçoamento da quantidade de recursos computacionais para atender uma determinada demanda, e também habilitando um ambiente computacional com capacidade de processamento suficiente para suportar novas pesquisas com foco no desenvolvimento de novas tecnologias e produtos, os quais ajudam de alguma forma a preservação dos recursos naturais Estudo de Caso Computação Voluntária como uma alternativa de tornar o consumo de energia mais eficiente O objetivo deste estudo de caso é levantar informações sobre a quantidade de computadores pessoais em uso na atualidade, o seu consumo médio de energia e como Grid Computing pode se beneficiar da capacidade excedente dos recursos computacionais sem decorrer em grandes impactos em relação ao consumo de energia elétrica Coleta de Dados O portal Internet World Stats (IWS, 2009) traz dados estatísticos sobre a utilização da Internet em relação à população mundial. Estima-se que o número total de usuários conectados à rede global de computadores é de 1.5 bilhão, espalhados por todo o planeta. A tabela 4 detalha informações sobre a penetração do acesso à Internet por regiões: Usuários de Usuários de População Internet Internet Crescimento de (Estimado em (Dezembro de (Março de Penetração (% Usuários (2000- % Usuários no 2008) 2000) 2009) População) 2008) total global Regiões África % % 3.40% Ásia % % 41.20% Europa % % 24.60% Oriente Médio % % 2.90% América do Norte % % 15.70% América Latina/Caribe % % 10.90% Oceania / % % 1.30% Austrália TOTAL % % % Tabela 4 Penetração de acesso a Internet por regiões (IWS, 2009)

106 104 As regiões da Oceania e da América do Norte são as que apresentam maior penetração de usuários conectados na Internet em relação as suas populações. A África, mesmo sendo a região com menor penetração, apresentou um crescimento extremamente considerável entre os anos de 2000 e Já a Ásia é a região que tem o maior número de usuários conectados na Internet, seguida pela a Europa. A Oceania apresenta, mesmo despontando entre as regiões com mais penetração, o menor número de usuários conectados à rede em relação ao total. O Gráfico 6 demonstra um comparativo do total de usuários conectados à Internet por região. Gráfico 6 Total de Usuário conectado à Internet por região (IWS,2009) Vale ressaltar que os usuários da Internet não possuem necessariamente o próprio dispositivo computacional, principalmente em países sub-desenvolvidos, onde muitas vezes acessam a rede a partir das máquinas dos seus trabalhos, centros de inclusão digital, lan houses, entre outros locais. Para exemplificar este cenário, pode-se comentar uma pesquisa divulgada por CETIC (2009), onde foi comparado o acesso a Internet a partir de diversas localidades: Percentual sobre o total de usuários de Internet no Brasil Gráfico 7 Local de acesso à Internet no Brasil (CETIC, 2009)

107 105 Apesar de o número de pessoas conectadas à Internet não representar o número de computadores, a quantidade total de recursos computacionais atualmente em uso no mundo é bem próximo a quantidade de usuários, principalmente para que seja possível atender toda essa demanda de acesso à Internet. Reuters (2008) divulgou um estudo realizado pelo Gartner Group19 onde cita que o número de computadores pessoais em uso superou a marca de 1 bilhão de equipamentos em Já de acordo com um estudo da Almanac (2009), estima-se que a quantidade total atingiu 1,2 bilhão de dispositivos no fim do ano de A Tabela 5 traz informações referentes aos 15 países que possuem uma maior quantidade de computadores pessoais: Localidade 1. Estados Unidos 2. China 3. Japão 4. Alemanha 5. Reino Unido 6. França 7. Rússia 8. Itália 9. Coréia do Sul 10. Brasil 11. índia 12. Canadá 13. México 14. Austrália 15. Espanha Top 15 Total Total Mundial PCs em uso (Unidade: Milhões) Porcentagem % Tabela 5 Total de computadores pessoais no mundo (ALMANAC, 2009) O próximo passo é a investigação da média do consumo de energia por parte dos recursos computacionais. Existem muitas métricas disponibilizadas sobre este assunto, entretanto o estudo realizado por Schmid (2005) buscou uma análise com mais detalhes sobre as principais marcas e modelos de processadores. O Gráfico 8 mostra o consumo de energia de recursos computacionais em dois 19 Gartner Group Empresa de consultoria fundada em 1979 focada em pesquisas de tecnologias.

108 106 cenários distintos computadores ociosos (Idle) e também alta utilização (100% do consumo de CPU). O autor citou que os dados foram coletados a partir de um ambiente computacional composto por uma placa-mãe, memória RAM, uma placa de vídeo, dois discos rígidos, um dispositivo de DVD e o processador em questão, sendo que apenas os periférios foram excluídos (monitores, impressoras entre outros). Gráfico 8 Consumo de energia por recursos computacionais (SCHMID, 2005) Nota-se que o consumo de energia está diretamente relacionado à utilização da capacidade computacional do computador. A partir dos dados de consumo dos processadores analisados, a média de demanda por recursos energéticos aumenta de acordo com a sua utilização. Em computadores ociosos (Idle), o consumo médio é de aproximadamente W, enquanto pode atingir W quando o recurso estiver com toda a sua capacidade

Infra estrutura da Tecnologia da Informação

Infra estrutura da Tecnologia da Informação Infra estrutura da Tecnologia da Informação Capítulo 3 Adaptado do material de apoio ao Livro Sistemas de Informação Gerenciais, 7ª ed., de K. Laudon e J. Laudon, Prentice Hall, 2005 CEA460 Gestão da Informação

Leia mais

Computação em Grid e em Nuvem

Computação em Grid e em Nuvem Computação em Grid e em Nuvem Computação em Nuvem Molos 1 Definição Um grid computacional é uma coleção recursos computacionais e comunicação utilizados para execução aplicações Usuário vê o grid como

Leia mais

Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios

Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios Capítulo 4 Infra-Estrutura de TI: Hardware e Software 2 1 OBJETIVOS

Leia mais

Unidade I SISTEMAS PARA INTERNET E. Prof. Emanuel Matos

Unidade I SISTEMAS PARA INTERNET E. Prof. Emanuel Matos Unidade I SISTEMAS PARA INTERNET E SOFTWARE LIVRE Prof. Emanuel Matos Sumário Unidade I Principais tecnologias da rede digital Computação cliente/servidor Comutação de pacotes TCP/IP Sistemas de informação

Leia mais

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Aula 2 Computação em Nuvem Desafios e Oportunidades A Computação em Nuvem

Leia mais

EXIN Cloud Computing Fundamentos

EXIN Cloud Computing Fundamentos Exame Simulado EXIN Cloud Computing Fundamentos Edição Maio 2013 Copyright 2013 EXIN Todos os direitos reservados. Nenhuma parte desta publicação pode ser publicado, reproduzido, copiado ou armazenada

Leia mais

O que é Grid Computing

O que é Grid Computing Grid Computing Agenda O que é Grid Computing Grid vs Cluster Benefícios Tipos de Grid Aplicações Ferramentas e padrões Exemplos no mundo Exemplos no Brasil Grid no mundo dos negócios Futuro O que é Grid

Leia mais

Características Básicas de Sistemas Distribuídos

Características Básicas de Sistemas Distribuídos Motivação Crescente dependência dos usuários aos sistemas: necessidade de partilhar dados e recursos entre utilizadores; porque os recursos estão naturalmente em máquinas diferentes. Demanda computacional

Leia mais

Convergência tecnológica em sistemas de informação

Convergência tecnológica em sistemas de informação OUT. NOV. DEZ. l 2006 l ANO XII, Nº 47 l 333-338 INTEGRAÇÃO 333 Convergência tecnológica em sistemas de informação ANA PAULA GONÇALVES SERRA* Resumo l Atualmente vivemos em uma sociedade na qual o foco

Leia mais

UMA REFLEXÃO SOBRE A REDE MUNDIAL DE COMPUTADORES

UMA REFLEXÃO SOBRE A REDE MUNDIAL DE COMPUTADORES Uma reflexão sobre a rede mundial de computadores 549 UMA REFLEXÃO SOBRE A REDE MUNDIAL DE COMPUTADORES por Guilherme Paiva de Carvalho * CASTELLS, Manuel. A galáxia da Internet: reflexões sobre a Internet,

Leia mais

Tipos de Sistemas Distribuídos (Cluster e Grid)

Tipos de Sistemas Distribuídos (Cluster e Grid) Tipos de Sistemas Distribuídos (Cluster e Grid) Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência

Leia mais

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Aula 1 Conceitos da Computação em Nuvem A computação em nuvem ou cloud computing

Leia mais

Aula 1: Introdução à Disciplina Fonte: Plano de Aula Oficial da Disciplina

Aula 1: Introdução à Disciplina Fonte: Plano de Aula Oficial da Disciplina Programação para Internet Rica 1 Aula 1: Introdução à Disciplina Fonte: Plano de Aula Oficial da Disciplina Objetivo: Identificar os princípios que se destacam como características da Web 2.0. INTRODUÇÃO

Leia mais

XIV SEMINÁRIO NACIONAL DE DISTRIBUIÇÃO DE ENERGIA ELÉTRICA INFORMATIZAÇÃO DAS NORMAS E PROCEDIMENTOS DE MEDIÇÃO VIA INTRANET E INTERNET

XIV SEMINÁRIO NACIONAL DE DISTRIBUIÇÃO DE ENERGIA ELÉTRICA INFORMATIZAÇÃO DAS NORMAS E PROCEDIMENTOS DE MEDIÇÃO VIA INTRANET E INTERNET XIV SEMINÁRIO NACIONAL DE DISTRIBUIÇÃO DE ENERGIA ELÉTRICA INFORMATIZAÇÃO DAS NORMAS E PROCEDIMENTOS DE MEDIÇÃO VIA INTRANET E INTERNET Autores: OROMAR CÓRDOVA GILBERTO ALVES LOBATO COPEL Companhia Paranaense

Leia mais

INFRAESTRUTURA DE TI E TECNOLOGIAS EMERGENTES

INFRAESTRUTURA DE TI E TECNOLOGIAS EMERGENTES Sistema de Informação e Tecnologia FEQ 0411 Prof Luciel Henrique de Oliveira luciel@uol.com.br Capítulo 5 INFRAESTRUTURA DE TI E TECNOLOGIAS EMERGENTES PRADO, Edmir P.V.; SOUZA, Cesar A. de. (org). Fundamentos

Leia mais

Ferramentas Web para controle e supervisão: o que está por vir

Ferramentas Web para controle e supervisão: o que está por vir Artigos Técnicos Ferramentas Web para controle e supervisão: o que está por vir Marcelo Salvador, Diretor de Negócios da Elipse Software Ltda. Já faz algum tempo que ouvimos falar do controle e supervisão

Leia mais

Processos (Threads,Virtualização e Migração de Código)

Processos (Threads,Virtualização e Migração de Código) Processos (Threads,Virtualização e Migração de Código) Roteiro Processos Threads Virtualização Migração de Código O que é um processo?! Processos são programas em execução. Processo Processo Processo tem

Leia mais

Fundamentos da Informática

Fundamentos da Informática 1 PROCESSAMENTO DE DADOS I - FUNDAMENTOS A) CONCEITO DE INFORMÁTICA - é a ciência que estuda o tratamento automático e racional da informação. B) PROCESSAMENTO DE DADOS 1) Conceito Processamento de dados

Leia mais

3 Serviços na Web (Web services)

3 Serviços na Web (Web services) 3 Serviços na Web (Web services) 3.1. Visão Geral Com base na definição do Word Wide Web Consortium (W3C), web services são aplicações autocontidas, que possuem interface baseadas em XML e que descrevem

Leia mais

Tendências em Qualidade de Software. Robert Pereira Pinto robert@base2.com.br

Tendências em Qualidade de Software. Robert Pereira Pinto robert@base2.com.br Tendências em Qualidade de Software Robert Pereira Pinto robert@base2.com.br Tendências Tecnológicas Computação nas nuvens Análises avançadas para simulação e otimização de processos Aplicações RIA Social

Leia mais

Administração de Sistemas de Informação Gerenciais

Administração de Sistemas de Informação Gerenciais Administração de Sistemas de Informação Gerenciais UNIDADE III: Infraestrutura de Tecnologia da Informação Atualmente, a infraestrutura de TI é composta por cinco elementos principais: hardware, software,

Leia mais

Cloud Computing. Andrêza Leite. andreza.lba@gmail.com

Cloud Computing. Andrêza Leite. andreza.lba@gmail.com Cloud Computing Andrêza Leite andreza.lba@gmail.com Roteiro O que é cloud computing? Classificação O que está 'por traz' da cloud? Exemplos Como montar a sua? O que é cloud computing? Cloud Computing O

Leia mais

SOA Introdução. SOA Visão Departamental das Organizações

SOA Introdução. SOA Visão Departamental das Organizações 1 Introdução A Organização é a forma pela qual nós coordenamos nossos recursos de todos os tipos para realizar o trabalho que nos propusemos a fazer. A estrutura de nossas organizações manteve-se basicamente

Leia mais

I Jornada de Pesquisa e Extensão Trabalhos Científicos

I Jornada de Pesquisa e Extensão Trabalhos Científicos I Jornada de Pesquisa e Extensão Trabalhos Científicos LABORATÓRIO DE CONVERGÊNCIA DE MÍDIAS PROJETO DE CRIAÇÃO DE UM NOVO AMBIENTE DE APRENDIZADO COM BASE EM REDES DIGITAIS. 1 Palavras-chave: Convergência,

Leia mais

Introdução. Nível do Sistema Operacional. Introdução. Um Sistema Operacional... Introdução a Sistemas Operacionais

Introdução. Nível do Sistema Operacional. Introdução. Um Sistema Operacional... Introdução a Sistemas Operacionais Introdução Nível do Sistema Operacional (Aula 14) Introdução a Sistemas Operacionais Hardware Provê os recursos básicos de computação (CPU, memória, E/S,etc.) Programas (aplicações) Definem as maneiras

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Evolução Edson Moreno edson.moreno@pucrs.br http://www.inf.pucrs.br/~emoreno Sumário Introdução Componentes de um sistema computacional Conceituação Características desejáveis Organização

Leia mais

Sistemas Operacionais. Prof. André Y. Kusumoto andrekusumoto.unip@gmail.com

Sistemas Operacionais. Prof. André Y. Kusumoto andrekusumoto.unip@gmail.com Sistemas Operacionais Prof. André Y. Kusumoto andrekusumoto.unip@gmail.com Introdução Um sistema operacional é um programa que atua como intermediário entre o usuário e o hardware de um computador. O propósito

Leia mais

Introdução aos Sistemas Distribuídos: histórico, evolução e a computação moderna Prof. MSc Hugo Vieira L. Souza

Introdução aos Sistemas Distribuídos: histórico, evolução e a computação moderna Prof. MSc Hugo Vieira L. Souza Introdução aos Sistemas Distribuídos: histórico, evolução e a computação moderna Prof. MSc Hugo Vieira L. Souza Este documento está sujeito a copyright. Todos os direitos estão reservados para o todo ou

Leia mais

ADAPTANDO UMA APLICAÇÃO PARA CLOUD: UMA ANÁLISE ENTRE OS ESFORÇOS UTILIZADOS

ADAPTANDO UMA APLICAÇÃO PARA CLOUD: UMA ANÁLISE ENTRE OS ESFORÇOS UTILIZADOS ADAPTANDO UMA APLICAÇÃO PARA CLOUD: UMA ANÁLISE ENTRE OS ESFORÇOS UTILIZADOS Cleverson Nascimento de Mello¹, Claudete Werner¹, Gabriel Costa Silva² ¹Universidade Paranaense (Unipar) Paranavaí PR Brasil

Leia mais

COMPUTAÇÃO EM NUVEM. Michele Marques Costa 1,2, Julio César2 ¹Universidade paranaense (Unipar)

COMPUTAÇÃO EM NUVEM. Michele Marques Costa 1,2, Julio César2 ¹Universidade paranaense (Unipar) COMPUTAÇÃO EM NUVEM Michele Marques Costa 1,2, Julio César2 ¹Universidade paranaense (Unipar) Paranavaí PR Brasil Mih_nai@hotmail.com juliocesar@unipar.br Resumo. Este artigo contém a definição e citação

Leia mais

CLOUD COMPUTING. Andrêza Leite. andreza.leite@univasf.edu.br

CLOUD COMPUTING. Andrêza Leite. andreza.leite@univasf.edu.br CLOUD COMPUTING Andrêza Leite andreza.leite@univasf.edu.br Roteiro O que é cloud computing? Classificação O que está 'por traz' da cloud? Exemplos Como montar a sua? O que é cloud computing? Cloud Computing

Leia mais

1 Introdução. 1.1 A Nova Era Digital

1 Introdução. 1.1 A Nova Era Digital 11 1 Introdução Com o advento da nova era da internet, conhecida com web 2.0, e o avanço das tecnologias digitais, o consumidor passa a ter maior acesso à informação bem como à facilidade de expressar

Leia mais

A Cloud Computing Architecture for Large Scale Video Data Processing

A Cloud Computing Architecture for Large Scale Video Data Processing Marcello de Lima Azambuja A Cloud Computing Architecture for Large Scale Video Data Processing Dissertação de Mestrado Dissertation presented to the Postgraduate Program in Informatics of the Departamento

Leia mais

NOTAS DE AULA - TELECOMUNICAÇÕES

NOTAS DE AULA - TELECOMUNICAÇÕES NOTAS DE AULA - TELECOMUNICAÇÕES 1. Conectando a Empresa à Rede As empresas estão se tornando empresas conectadas em redes. A Internet e as redes de tipo Internet dentro da empresa (intranets), entre uma

Leia mais

CLOUD COMPUTING. Gustavo Matos Rodrigues 1 Leandro Panatta Vissentini 1 Sandy Júnior Sagiorato 1 Victor Daniel Scandolara 1 Eva Lourdes Pires 2

CLOUD COMPUTING. Gustavo Matos Rodrigues 1 Leandro Panatta Vissentini 1 Sandy Júnior Sagiorato 1 Victor Daniel Scandolara 1 Eva Lourdes Pires 2 CLOUD COMPUTING Gustavo Matos Rodrigues 1 Leandro Panatta Vissentini 1 Sandy Júnior Sagiorato 1 Victor Daniel Scandolara 1 Eva Lourdes Pires 2 Resumo: Este artigo tem como objetivo falar da computação

Leia mais

Balanceamento de Carga TSS TSS

Balanceamento de Carga TSS TSS TSS 1 Sumário 1. Introdução... 3 1.1. Plataforma Operacional... 3 2. Balanceamento de Carga.... 4 2.1. Conceito... 4 2.2 Modelos de Balanceamento.... 5 2.2.1. Balanceamento por Entidade ou Filial... 5

Leia mais

A Evolução dos Sistemas Operacionais

A Evolução dos Sistemas Operacionais Capítulo 3 A Evolução dos Sistemas Operacionais Neste capítulo, continuaremos a tratar dos conceitos básicos com a intensão de construirmos, agora em um nível mais elevado de abstração, o entendimento

Leia mais

Por Antonio Couto. Autor: Antonio Couto Enterprise Architect

Por Antonio Couto. Autor: Antonio Couto Enterprise Architect Cloud Computing e HP Converged Infrastructure Para fazer uso de uma private cloud, é necessário crescer em maturidade na direção de uma infraestrutura convergente. Por Antonio Couto O que é Cloud Computing?

Leia mais

Automatizando o Data Center

Automatizando o Data Center Este artigo examina uma arquitetura alternativa que suporte a automação do data center e o provisionamento dinâmico sem a virtualização do sistema operacional. por Lori MacVittie Gerente Técnico de Marketing,

Leia mais

Conceitos básicos de comunicação de dados e redes de computadores

Conceitos básicos de comunicação de dados e redes de computadores Conceitos básicos de comunicação de dados e redes de computadores Nesta aula vamos ver o conceito de informática e comunicação de dados, conhecer noções teleprocessamento e de rede de computadores e obter

Leia mais

Infra-Estrutura de TI: Hardware e Software

Infra-Estrutura de TI: Hardware e Software Capítulo 4 Infra-Estrutura de TI: Hardware e Software 4.1 2007 by Prentice Hall Infra-Estrutura de TI: Hardware Componentes da Infra-Estrutura Hardware Software Tecnologia de gerenciamento de dados Tecnologia

Leia mais

Trabalho de Sistemas Distribuídos

Trabalho de Sistemas Distribuídos Cássio de Olivera Ferraz Trabalho de Sistemas Distribuídos Petrópolis 2015, v-1.0 Cássio de Olivera Ferraz Trabalho de Sistemas Distribuídos Trabalho sobre sistemas distribuídos e suas tecnologias. Universidade

Leia mais

Um arcabouço para gerenciamento automático de máquinas virtuais em CPDsbaseado em perfil

Um arcabouço para gerenciamento automático de máquinas virtuais em CPDsbaseado em perfil VIII WORKSHOP DE PÓS-GRADUAÇÃO E PESQUISA DO CENTRO PAULA SOUZA São Paulo, 9 e 10 de outubro de 2013 Sistemas produtivos: da inovação à sustentabilidade ISSN: 2175-1897 Um arcabouço para gerenciamento

Leia mais

Tese / Thesis Work Análise de desempenho de sistemas distribuídos de grande porte na plataforma Java

Tese / Thesis Work Análise de desempenho de sistemas distribuídos de grande porte na plataforma Java Licenciatura em Engenharia Informática Degree in Computer Science Engineering Análise de desempenho de sistemas distribuídos de grande porte na plataforma Java Performance analysis of large distributed

Leia mais

Universidade Agostinho Neto Faculdade de Ciências Departamento de Ciências da Computação

Universidade Agostinho Neto Faculdade de Ciências Departamento de Ciências da Computação Universidade Agostinho Neto Faculdade de Ciências Departamento de Ciências da Computação Nº 96080 - Adário de Assunção Fonseca Muatelembe Nº 96118 - Castelo Pedro dos Santos Nº 96170 - Feliciano José Pascoal

Leia mais

Computação em Nuvem & OpenStack

Computação em Nuvem & OpenStack Computação em Nuvem & OpenStack Grupo de Pesquisa em Software e Hardware Livre Ação Computação em Nuvem: Charles Christian Miers André Rover de Campos Glauber Cassiano Batista Joinville Roteiro Definições

Leia mais

Levantamento sobre Computação em Nuvens

Levantamento sobre Computação em Nuvens Levantamento sobre Computação em Nuvens Mozart Lemos de Siqueira Doutor em Ciência da Computação Centro Universitário Ritter dos Reis Sistemas de Informação: Ciência e Tecnologia Aplicadas mozarts@uniritter.edu.br

Leia mais

2 Conceitos relativos a Web services e sua composição

2 Conceitos relativos a Web services e sua composição 15 2 Conceitos relativos a Web services e sua composição A necessidade de flexibilidade na arquitetura das aplicações levou ao modelo orientado a objetos, onde os processos de negócios podem ser representados

Leia mais

Designer gráfico. elementos verbais e não-verbais que irão compor peças gráficas com a finalidade

Designer gráfico. elementos verbais e não-verbais que irão compor peças gráficas com a finalidade Rubens de Souza Designer gráfico O designer gráfico desenvolve projetos ou planejamentos a partir de elementos verbais e não-verbais que irão compor peças gráficas com a finalidade específica de atingir

Leia mais

A importância da Informática na Educação

A importância da Informática na Educação A importância da Informática na Educação AGUIAR, Juliana Discente da Faculdade de Ciências Jurídicas e Gerenciais FAEG - Rua das Flores, 740 Bairro Labienópolis - CEP 17400-000 Garça (SP) Brasil Telefone

Leia mais

mídia, psicologia e subjetividade I 2014-2 I egc I ufsc sílvio serafim marisa carvalho

mídia, psicologia e subjetividade I 2014-2 I egc I ufsc sílvio serafim marisa carvalho mídia, psicologia e subjetividade I 2014-2 I egc I ufsc sílvio serafim marisa carvalho Sumário Conhecimento introdução EGC estudo Mídias conceito teoria Cibercultura processo Inovação mídias Temas seminários

Leia mais

Atividade Capitulo 6 - GABARITO

Atividade Capitulo 6 - GABARITO Atividade Capitulo 6 - GABARITO 1. A Internet é uma força motriz subjacente aos progressos em telecomunicações, redes e outras tecnologias da informação. Você concorda ou discorda? Por quê? Por todos os

Leia mais

Convergência por Design

Convergência por Design Convergência por Design Ronaldo Aloise Diretor de Vendas ESSN 2009 Hewlett-Packard Development Company, L.P. 1 As informações contidas neste documento estão sujeitas a alterações sem aviso. A Transformação

Leia mais

Integração ERP/WMS e vantagens com a adoção de software livre

Integração ERP/WMS e vantagens com a adoção de software livre Integração ERP/WMS e vantagens com a adoção de software livre Filipi Damasceno Vianna (PUCRS) filipi@em.pucrs.br Resumo Este trabalho visa mostrar a importância da integração entre sistemas de ERP 1 e

Leia mais

ABRIL 2010. Redes Sociais: revolução cultural na Internet. Ano 2 Número 2

ABRIL 2010. Redes Sociais: revolução cultural na Internet. Ano 2 Número 2 ABRIL 2010 Redes Sociais: revolução cultural na Internet Ano 2 Número 2 SUMÁRIO EXECUTIVO As redes sociais: revolução cultural na Internet Apresentação Definindo as redes sociais As redes sociais formam

Leia mais

Arquitetura e Sistema de Monitoramento para

Arquitetura e Sistema de Monitoramento para Arquitetura e Sistema de Monitoramento para 1 Computação em Nuvem Privada Mestranda: Shirlei A. de Chaves Orientador: Prof. Dr. Carlos Becker Westphall Colaborador: Rafael B. Uriarte Introdução Computação

Leia mais

COMPUTAÇÃO EM GRID COM BANCO DE DADOS ORACLE 10g

COMPUTAÇÃO EM GRID COM BANCO DE DADOS ORACLE 10g COMPUTAÇÃO EM GRID COM BANCO DE DADOS ORACLE 10g Daniel Murara Barcia Especialista em Sistemas de Informação Universidade Federal do Rio Grande do Sul daniel@guaiba.ulbra.tche.br Resumo. Esse artigo aborda

Leia mais

Material 5 Administração de Recursos de HW e SW. Prof. Edson Ceroni

Material 5 Administração de Recursos de HW e SW. Prof. Edson Ceroni Material 5 Administração de Recursos de HW e SW Prof. Edson Ceroni Desafios para a Administração Centralização X Descentralização Operação interna x Outsourcing Hardware Hardware de um Computador Armazenamento

Leia mais

Aula 2. Objetivo: Saber qual a funcionalidade de um sistema operacional de rede.

Aula 2. Objetivo: Saber qual a funcionalidade de um sistema operacional de rede. Aula 2 Objetivo: Saber qual a funcionalidade de um sistema operacional de rede. Sistema Operacional de Rede Definição: Conjunto de módulos que ampliam as tarefas dos sistemas operacionais locais, complementando-os

Leia mais

The Eucalyptus Open- source Cloud-computing System. Janaina Siqueira Lara Wilpert Marcelo Scheidt Renata Silva

The Eucalyptus Open- source Cloud-computing System. Janaina Siqueira Lara Wilpert Marcelo Scheidt Renata Silva The Eucalyptus Open- source Cloud-computing System Janaina Siqueira Lara Wilpert Marcelo Scheidt Renata Silva Sumário Introdução Trabalhos Correlatos Eucalyptus Design Conclusões Visão Geral Introdução:

Leia mais

Foz do Iguaçu PR Brasil luiz.baltazar@gmail.com, joao@barbosa.net.br, jorgeaikes@gmail.com

Foz do Iguaçu PR Brasil luiz.baltazar@gmail.com, joao@barbosa.net.br, jorgeaikes@gmail.com Análise de Desempenho e Viabilidade do Raspberry Pi como um Thin Client utilizando o Protocolo SPICE Luiz Alberto Alves Baltazar 1, João Paulo de Lima Barbosa 1, Jorge Aikes Junior 1 1 Curso de Ciência

Leia mais

SISTEMAS DISTRIBUIDOS

SISTEMAS DISTRIBUIDOS 1 2 Caracterização de Sistemas Distribuídos: Os sistemas distribuídos estão em toda parte. A Internet permite que usuários de todo o mundo acessem seus serviços onde quer que possam estar. Cada organização

Leia mais

SISTEMAS DISTRIBUÍDOS

SISTEMAS DISTRIBUÍDOS SISTEMAS DISTRIBUÍDOS Cluster, Grid e computação em nuvem Slide 8 Nielsen C. Damasceno Introdução Inicialmente, os ambientes distribuídos eram formados através de um cluster. Com o avanço das tecnologias

Leia mais

ARQUITETURA TRADICIONAL

ARQUITETURA TRADICIONAL INTRODUÇÃO Atualmente no universo corporativo, a necessidade constante de gestores de tomar decisões cruciais para os bons negócios das empresas, faz da informação seu bem mais precioso. Nos dias de hoje,

Leia mais

Agregando valor com Business Service Innovation

Agregando valor com Business Service Innovation Agregando valor com Business Service Innovation A TI é enorme. Existem tantos bits no universo digital quanto estrelas em nosso universo físico. é arriscada. Dois terços dos projetos de TI estão em risco,

Leia mais

Componentes dos sistemas computadorizados Aula 04 FTC FACULDADE DE TECNOLOGIA E CIÊNCIAS ADMINISTRAÇÃO IV SEMESTRE

Componentes dos sistemas computadorizados Aula 04 FTC FACULDADE DE TECNOLOGIA E CIÊNCIAS ADMINISTRAÇÃO IV SEMESTRE Componentes dos sistemas computadorizados Aula 04 FTC FACULDADE DE TECNOLOGIA E CIÊNCIAS ADMINISTRAÇÃO IV SEMESTRE Componentes da infraestrutura Hardware Software Tecnologia de gerenciamento de dados Tecnologia

Leia mais

REDE DE COMPUTADORES

REDE DE COMPUTADORES REDE DE COMPUTADORES Evolução histórica das redes de computadores Prof. Airton Ribeiro de Sousa E-mail: airton.ribeiros@gmail.com 1 Objetivos de Aprendizagem Ao final deste módulo você estará apto a conceituar

Leia mais

Administração de Sistemas de Informação Gerenciais

Administração de Sistemas de Informação Gerenciais Administração de Sistemas de Informação Gerenciais UNIDADE III: Infraestrutura de Tecnologia da Informação Atualmente, a infraestrutura de TI é composta por cinco elementos principais: hardware, software,

Leia mais

CURSO TECNOLÓGICO 2008/01 1º SEMESTRE. Programação e Estruturas de Dados Fundamentais

CURSO TECNOLÓGICO 2008/01 1º SEMESTRE. Programação e Estruturas de Dados Fundamentais 1º SEMESTRE Programação e Estruturas de Dados Fundamentais 8 Créditos Desenvolver a lógica de programação através da construção de algoritmos utilizando português estruturado Representar a solução de problemas

Leia mais

ATIVIDADES PRÁTICAS SUPERVISIONADAS

ATIVIDADES PRÁTICAS SUPERVISIONADAS ATIVIDADES PRÁTICAS SUPERVISIONADAS Ciência da Computação 5ª série Sistemas Operacionais A atividade prática supervisionada (ATPS) é um método de ensinoaprendizagem desenvolvido por meio de um conjunto

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos LICENCIATURA EM COMPUTAÇÃO Prof. Adriano Avelar Site: www.adrianoavelar.com Email: eam.avelar@gmail.com O que veremos hoje... Evolução Histórica Motivação Conceitos Características

Leia mais

CAPITULO 4 A ARQUITETURA LÓGICA PARA O AMBIENTE

CAPITULO 4 A ARQUITETURA LÓGICA PARA O AMBIENTE CAPITULO 4 A ARQUITETURA LÓGICA PARA O AMBIENTE A proposta para o ambiente apresentada neste trabalho é baseada no conjunto de requisitos levantados no capítulo anterior. Este levantamento, sugere uma

Leia mais

Introdução. O que é Serviços de Terminal

Introdução. O que é Serviços de Terminal Introdução Microsoft Terminal Services e Citrix MetaFrame tornaram-se a indústria padrões para fornecer acesso de cliente thin para rede de área local (LAN), com base aplicações. Com o lançamento do MAS

Leia mais

TEORIA GERAL DE SISTEMAS

TEORIA GERAL DE SISTEMAS TEORIA GERAL DE SISTEMAS Infraestrutura de TI: oferece a plataforma para suporte de todos os sistemas de informação na empresa. Hardware Software Componentes da infraestrutura Tecnologia de gestão de dados

Leia mais

4 Computação Paralela 4.1. Introdução

4 Computação Paralela 4.1. Introdução 4 Computação Paralela 4.1. Introdução Nos últimos anos observa-se uma tendência cada vez maior do aumento da demanda computacional na resolução de grandes problemas. Exemplos de aplicações que exigem alto

Leia mais

fornecendo valor com inovações de serviços de negócios

fornecendo valor com inovações de serviços de negócios fornecendo valor com inovações de serviços de negócios A TI é grande. Tantos bits no universo digital quanto estrelas em nosso universo físico. é arriscada. Dois terços dos projetos de TI estão em risco,

Leia mais

A evolução da tecnologia da informação nos últimos 45 anos

A evolução da tecnologia da informação nos últimos 45 anos A evolução da tecnologia da informação nos últimos 45 anos Denis Alcides Rezende Do processamento de dados a TI Na década de 1960, o tema tecnológico que rondava as organizações era o processamento de

Leia mais

Introdução ao Modelos de Duas Camadas Cliente Servidor

Introdução ao Modelos de Duas Camadas Cliente Servidor Introdução ao Modelos de Duas Camadas Cliente Servidor Desenvolvimento de Sistemas Cliente Servidor Prof. Esp. MBA Heuber G. F. Lima Aula 1 Ciclo de Vida Clássico Aonde estamos? Page 2 Análise O que fizemos

Leia mais

Service Oriented Architecture (SOA)

Service Oriented Architecture (SOA) São Paulo, 2011 Universidade Paulista (UNIP) Service Oriented Architecture (SOA) Prof. MSc. Vladimir Camelo vladimir.professor@gmail.com 04/09/11 vladimir.professor@gmail.com 1 04/09/11 vladimir.professor@gmail.com

Leia mais

Curso Tecnólogo em Gestão da Tecnologia da Informação - 2013 -

Curso Tecnólogo em Gestão da Tecnologia da Informação - 2013 - Curso Tecnólogo em Gestão da Tecnologia da Informação - 2013 - O Curso Tecnólogo em Gestão da Tecnologia da Informação é um curso da área de informática e tem seu desenho curricular estruturado por competências

Leia mais

Modelos e Arquiteturas de Sistemas Computacionais

Modelos e Arquiteturas de Sistemas Computacionais Modelos e Arquiteturas de Sistemas Computacionais Prof. Ricardo J. Rabelo UFSC Universidade Federal de Santa Catarina DAS Departamento de Automação e Sistemas SUMÁRIO Importância da definição da Arquitetura

Leia mais

Uma abordagem estratégica para atender à demanda de Nuvem

Uma abordagem estratégica para atender à demanda de Nuvem White paper Para provedores de nuvem Uma abordagem estratégica para atender à demanda de Nuvem Introdução: os novos desafios dos clientes estimulam a adoção da nuvem Em um ambiente de negócios dinâmico,

Leia mais

TECNÓLOGO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS PROGRAMAÇÃO DE COMPUTADORES I Aula 01: Conceitos Iniciais / Sistema Operacional

TECNÓLOGO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS PROGRAMAÇÃO DE COMPUTADORES I Aula 01: Conceitos Iniciais / Sistema Operacional TECNÓLOGO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS PROGRAMAÇÃO DE COMPUTADORES I Aula 01: Conceitos Iniciais / Sistema Operacional O conteúdo deste documento tem por objetivo apresentar uma visão geral

Leia mais

Tendências em TI Aula: 01 versão: 1.1 30/06/2014

Tendências em TI Aula: 01 versão: 1.1 30/06/2014 Tendências em TI Aula: 01 versão: 1.1 30/06/2014 Robson Vaamonde http://www.vaamonde.com.br http://www.procedimentosemti.com.br Professor do Curso Prof. Robson Vaamonde, consultor de Infraestrutura de

Leia mais

SISTEMA DE GESTÃO DE PESSOAS SEBRAE/TO UNIDADE: GESTÃO ESTRATÉGICA PROCESSO: TECNOLOGIA DA INFORMAÇÃO

SISTEMA DE GESTÃO DE PESSOAS SEBRAE/TO UNIDADE: GESTÃO ESTRATÉGICA PROCESSO: TECNOLOGIA DA INFORMAÇÃO SISTEMA DE GESTÃO DE PESSOAS SEBRAE/TO UNIDADE: GESTÃO ESTRATÉGICA PROCESSO: TECNOLOGIA DA INFORMAÇÃO Competências Analista 1. Administração de recursos de infra-estrutura de tecnologia da informação 2.

Leia mais

Virtualização de Desktops NComputing

Virtualização de Desktops NComputing NComputing Resumo Todos já nos acostumamos ao formato do PC, que permite que cada usuário tenha sua própria CPU, seu próprio disco rígido e sua própria memória para rodar seus aplicativos. Mas os computadores

Leia mais

OCEL001 Comércio Eletrônico Módulo 9_1: Clusters. Prof. Charles Christian Miers. e-mail: charles.miers@udesc.br

OCEL001 Comércio Eletrônico Módulo 9_1: Clusters. Prof. Charles Christian Miers. e-mail: charles.miers@udesc.br OCEL001 Comércio Eletrônico Módulo 9_1: Clusters Prof. Charles Christian Miers e-mail: charles.miers@udesc.br Redundância e Alta Disponibilidade Redundância: Duplicação de um elemento da infraestrutura

Leia mais

ATIVIDADE 1. Definição de redes de computadores

ATIVIDADE 1. Definição de redes de computadores ATIVIDADE 1 Definição de redes de computadores As redes de computadores são criadas para permitir a troca de dados entre diversos dispositivos estações de trabalho, impressoras, redes externas etc. dentro

Leia mais

Gerenciamento e Interoperabilidade de Redes

Gerenciamento e Interoperabilidade de Redes EN-3610 Gerenciamento e Interoperabilidade de Redes Computação em Nuvem Introdução Centralização do processamento Surgimento da Teleinformática Década de 60 Execução de programas localmente Computadores

Leia mais

Arquitetura de Software: Uma Central para Gestão da execução de serviços

Arquitetura de Software: Uma Central para Gestão da execução de serviços Arquitetura de Software: Uma Central para Gestão da execução de serviços ADILSON FERREIRA DA SILVA Centro Paula Souza São Paulo Brasil afs.software@gmail.com Prof.a. Dr.a. MARILIA MACORIN DE AZEVEDO Centro

Leia mais

2 Computação na Nuvem

2 Computação na Nuvem 18 2 Computação na Nuvem 2.1 Definição A ideia essencial da computação na nuvem é permitir um novo modelo onde o consumo de recursos computacionais, e.g., armazenamento, processamento, banda entrada e

Leia mais

SEGURANÇA DA INFORMAÇÃO EM BIBLIOTECAS DIGITAIS

SEGURANÇA DA INFORMAÇÃO EM BIBLIOTECAS DIGITAIS 1 SEGURANÇA DA INFORMAÇÃO EM BIBLIOTECAS DIGITAIS MARQUES, A. M. 1 ; VIDOTTI, S. A. B. G. 1 A Rede Internet como a conhecemos hoje foi concebida inicialmente para fins militares e depois utilizada como

Leia mais

Sistemas de Informações Gerenciais

Sistemas de Informações Gerenciais Sistemas de Informações Gerenciais Aula 3 Sistema de Informação Conceito, Componentes e Evolução Professora: Cintia Caetano INTRODUÇÃO Conceito: Um Sistema de Informação (SI) é um sistema cujo elemento

Leia mais

Plataforma na nuvem do CA AppLogic para aplicativos corporativos

Plataforma na nuvem do CA AppLogic para aplicativos corporativos FOLHA DE PRODUTOS: CA AppLogic Plataforma na nuvem do CA AppLogic para aplicativos corporativos agility made possible O CA AppLogic é uma plataforma de computação na nuvem pronta para o uso que ajuda a

Leia mais

COMPUTAÇÃO EM NUVEM: TENDÊNCIAS E OPORTUNIDADES DE NEGÓCIOS RELATÓRIO EXECUTIVO DE NEGÓCIOS

COMPUTAÇÃO EM NUVEM: TENDÊNCIAS E OPORTUNIDADES DE NEGÓCIOS RELATÓRIO EXECUTIVO DE NEGÓCIOS COMPUTAÇÃO EM NUVEM: TENDÊNCIAS E OPORTUNIDADES DE NEGÓCIOS TM RELATÓRIO EXECUTIVO DE NEGÓCIOS A visão da computação em nuvem por Aad van Schetsen, vicepresidente da Compuware Uniface, que mostra por que

Leia mais

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Aula 3 Virtualização de Sistemas 1. Conceito Virtualização pode ser definida

Leia mais

Uma reflexão sobre os processos de mediação em um fórum de discussão a partir da análise de redes sociais. São Leopoldo RS maio 2011

Uma reflexão sobre os processos de mediação em um fórum de discussão a partir da análise de redes sociais. São Leopoldo RS maio 2011 1 Uma reflexão sobre os processos de mediação em um fórum de discussão a partir da análise de redes sociais São Leopoldo RS maio 2011 Patrícia B. Scherer Bassani Feevale patriciab@feevale.br Setor Educacional:

Leia mais