Aumento da Capacidade de Armazenamento do SPRACE



Documentos relacionados
Grid Computing: Processamento de Alto Desempenho em Rede

Estratégia de Implantação do GridUNESP. II Brazilian LHC Computing Workshop - GridUNESP

Planejamento para Implantação do GridUnesp. II Workshop GridUnesp Outubro de 2006

SERVIDOR VIRTUAL BÁSICO - LINUX

Laboratório de Instrumentação e Física Experimental de Partículas

Sistemas Distribuídos

CONSULTORIA E SERVIÇOS DE INFORMÁTICA

SERVIDOR VIRTUAL BÁSICO - WINDOWS

MODELO DE PROJETO DE PESQUISA CIENTÍFICA

SISTEMAS DISTRIBUÍDOS

Faculdades Santa Cruz - Inove. Plano de Aula Base: Livro - Distributed Systems Professor: Jean Louis de Oliveira.

ESTUDO DE VIABILIDADE. Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos

Capacidade = 512 x 300 x x 2 x 5 = ,72 GB

Instituto de Educação Tecnológica Pós-graduação Gestão em Tecnologia da Informação - Turma nº 25 08/04/2015. Computação em Nuvem

RESOLUÇÃO Nº 080/2014, DE 25 DE JUNHO DE 2014 CONSELHO UNIVERSITÁRIO UNIVERSIDADE FEDERAL DE ALFENAS UNIFAL-MG

Multiplexador. Permitem que vários equipamentos compartilhem um único canal de comunicação

Gerenciamento de Níveis de Serviço

IBM Managed Security Services for Agent Redeployment and Reactivation

INFLUÊNCIA DA TECNOLOGIA DA INFORMAÇÃO NA GESTÃO DA ÁGUA E ESGOTO

LOGÍSTICA MADE DIFFERENT LOGÍSTICA

PLANO DE ATUALIZAÇÃO E MANUTENÇÃO DE EQUIPAMENTOS

Universidade Paulista

Portnet: SAP Business One prepara empresa para crescimento contínuo

EDITAL FAPERN/CAPES 01/2013 APOIO AOS PROGRAMAS DE PÓS-GRADUAÇÃO DAS INSTITUIÇÕES DE ENSINO SUPERIOR (IES) DO ESTADO DO RIO GRANDE DO NORTE

Status da T2-UERJ. Equipe técnica: Douglas Milanez Eduardo Revoredo José Afonso Sanches. Estagiários Luiz Gustavo Dornellas Renata Salles

Núvem Pública, Privada ou Híbrida, qual adotar?

PLANO DE ATUALIZAÇÃO E MANUTENÇÃO DOS EQUIPAMENTOS

Buscamos sempre a solução mais eficaz, de acordo com o avanço tecnológico dos sistemas de Telecomunicações e Tecnologia da Informação.

Cultura Inglesa São Paulo automatiza backup diário em 18 unidades com arcserve

Ponto Microsis. Sistema de Registro Eletrônico de Ponto

Programa FAPESP. Pesquisa Inovativa EM. Pequenas Empresas

Administração de Sistemas de Informação Gerenciais

RESOLUÇÃO POLÍTICA DE ATUALIZAÇÃO DE EQUIPAMENTOS E SOFTWARES.

LMA, Solução em Sistemas

ORGANIZAÇÃO DE COMPUTADORES MÓDULO 10

MANUAL PARA APRESENTAÇÃO DE PROJETOS SOCIAIS. Junho, 2006 Anglo American Brasil

ORIENTAÇÕES DO SISMMAC SOBRE O NOVO PLANO DE CARREIRA

A consolidação de servidores traz uma séria de vantagens, como por exemplo:

Infraestrutura: devo usar a nuvem? Prof. Artur Clayton Jovanelli

Projeto Você pede, eu registro.

MANUAL DE ATIVIDADES COMPLEME MENTARES CURSO DE ENFERMAGEM. Belo Horizonte

FEATI - Faculdade de Educação, Administração e Tecnologia de Ibaiti Mantida pela União das Instituições Educacionais do Estado de São Paulo UNIESP

3. Arquitetura Básica do Computador

CASO DE SUCESSO SENAI

Por Antonio Couto. Autor: Antonio Couto Enterprise Architect

Segurança Computacional. Rodrigo Fujioka

PROPOSTA COMERCIAL CLOUD SERVER

Mapeamento de Processos

Como conduzir com sucesso um projeto de melhoria da qualidade

Manual do usuário. Mobile Auto Download

MANUAL DE INSTALAÇÃO 1) ORACLE VIRTUALBOX ; 2) MICROSOFT WINDOWS ; 3) SUMÁRIOS GENEPLUS.

NOVOMAIL. A nova geração do corporativo

SPEKTRUM SOLUÇÕES DE GRANDE PORTE PARA PEQUENAS E MÉDIAS EMPRESAS SPEKTRUM SAP Partner 1

TRABALHO COM GRANDES MONTAGENS

Dell Infrastructure Consulting Services

CHAMADA PÚBLICA 2015

Soluções em. Cloud Computing. Midia Indoor. para

Projeto: Atualização da Infra-estrutura de Comunicação por Videoconferência, para promover as Atividades de Pesquisa multicampus.

Processo de Controle das Reposições da loja

PROJETO BÁSICO GRAMADOTUR

TI em Números Como identificar e mostrar o real valor da TI

PODER JUDICIÁRIO TRIBUNAL DE JUSTIÇA DO ESTADO DO AMAZONAS DIVISÃO DE GESTÃO DA QUALIDADE

MECANISMOS PARA GOVERNANÇA DE T.I. IMPLEMENTAÇÃO DA. Prof. Angelo Augusto Frozza, M.Sc.

Suporte de alto nível, equipe atualizada e a qualidade dos equipamentos HP.

ENGENHARIA DE SOFTWARE I

OBSERVATÓRIO NACIONAL ON COORDENAÇÃO DE GEOFÍSICA COGE PROGRAMA DE CAPACITAÇÃO INSTITUCIONAL PCI/MCTI CHAMADA 01/2013

Admistração de Redes de Computadores (ARC)

PROPOSTA DE PROJETO DE PESQUISA APLICADA PARA AUXÍLIO FINANCEIRO A CURSOS PROJETO DE TELEFONIA IP

Servidores Virtuais. Um servidor à medida da sua empresa, sem investimento nem custos de manutenção.

Introdução A Engenharia Da Computação

Memórias Prof. Galvez Gonçalves

EDITAL DE SELEÇÃO PÚBLICA DE FORNECEDORES 007/ ANEXO I TERMO DE REFERÊNCIA

ISO/IEC 12207: Gerência de Configuração

P4-MPS.BR - Prova de Conhecimento do Processo de Aquisição do MPS.BR

CICLO PDCA POLÍTICA DE SEGURANÇA DA INFORMAÇÃO SISTEMAS DE GESTÃO EMPRESARIAL Responsáveis: Ana Luíza Cruvinel, Maikon Franczak e Wendel Borges

Projeto de inovação do processo de monitoramento de safra da Conab

Service Level Management SLM. Gerenciamento de Níveis de Serviço

Dadas a base e a altura de um triangulo, determinar sua área.

Microsoft Project 2003

SISTEMA DE GESTÃO DE PESSOAS SEBRAE/TO UNIDADE: GESTÃO ESTRATÉGICA PROCESSO: TECNOLOGIA DA INFORMAÇÃO

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior

ORIENTAÇÕES BÁSICAS PARA ELABORAÇÃO DE PROJETOS

UNIVERSIDADE DE SÃO PAULO FACULDADE DE ECONOMIA, ADMINISTRAÇÃO E CONTABILIDADE

Modos de Propagação. Tecnologia em Redes de Computadores 5º Período Disciplina: Sistemas e Redes Ópticas Prof. Maria de Fátima F.

Implantação. Prof. Eduardo H. S. Oliveira

PROPOSTA PARA UM SUPORTE ADEQUADO ÀS REDES LOCAIS NA UFSCar Prof. Néocles Alves Pereira Secretário Geral de Informática

15/09/2015. Gestão e Governança de TI. Modelo de Governança em TI. A entrega de valor. A entrega de valor. A entrega de valor. A entrega de valor

A. Critérios para Avaliação e Aprovação de Cursos Novos de História

Transcrição:

Julho 2010 Aumento da Capacidade de Armazenamento do SPRACE São Paulo Regional Analysis Center Sergio Ferraz Novaes

Sumário I. IDENTIFICAÇÃO DA PROPOSTA... 3 II. QUALIFICAÇÃO DO PROBLEMA... 3 III. OBJETIVOS E METAS... 4 IV. METODOLOGIA... 5 V. CONTRIBUIÇÕES CIENTÍFICAS... 5 VI. ORÇAMENTO... 5 VII. CRONOGRAMA... 6 VIII. PARTICIPANTES DO PROJETO... 6 IX. COLABORAÇÕES E PARCERIAS... 6 X. INFRAESTRUTURA E APOIO TÉCNICO... 6 XI. ESTIMATIVA DE RECURSOS DE OUTRAS FONTES... 7 2

I. Identificação da Proposta Título Aumento da Capacidade de Armazenamento do SPRACE Pesquisador Responsável Sérgio Ferraz Novaes II. Qualificação do Problema Em 2003, o grupo paulista que atua nas Colaborações DZero do Fermilab e CMS do CERN formou o Centro Regional de Análises de São Paulo SPRACE, com recursos da FAPESP, para capacitar os pesquisadores de São Paulo a realizar análise de dados e colaborar com a produção de simulação de Monte Carlo, (re)processamento e armazenamento de dados dos experimentos DZero no Fermilab e CMS no CERN. Simultaneamente à participação no esforço global de processamento de dados das colaborações às quais pertence, o grupo do SPRACE desenvolve, também, investigação científica na área de busca por nova física nesses experimentos, atuando principalmente, mas não somente, na procura por indícios da existência, em suas várias formas, de dimensões extras espaciais. O SPRACE também provê infraestrutura para treinamento a distância em física de altas energias, realiza projetos de extensão em ensino de física de partículas elementares para o ensino médio e lidera o desenvolvimento de projetos de computação científica de alto desempenho. Uma linha de pesquisa em pleno desenvolvimento na área de computação é a denominada computação em grid (Grid-Computing). Esse desenvolvimento permite que recursos computacionais distribuídos geograficamente sejam utilizados de forma agregada, operando como um sistema unificado. Atualmente, a simulação, o processamento, o armazenamento e a análise de dados dos experimentos DZero e CMS se dão, no SPRACE, através do ambiente de grid desenvolvido pelo Open Science Grid OSG, uma iniciativa de Grid americana voltada para a pesquisa científica. O uso do middleware provido pelo OSG torna o SPRACE capaz de oferecer sua infraestrutura computacional para o processamento de dados de várias organizações virtuais, notadamente o DZero e o CMS. O SPRACE é também parte integrante da infraestrutura distribuída de processamento de dados do Worldwide LHC Computing Grid WLCG, atuando como uma unidade de nível 2 (Tier 2) na estrutura de Grid do LHC. A participação do SPRACE no WLCG foi oficializada através da assinatura do Memorando de Entendimento para Colaboração na Implantação e Utilização do Grid Computacional Mundial do LHC assinado pelo Presidente da Fundação de Amparo à Pesquisa do Estado de São Paulo, Prof. Dr. Celso Lafer, e pelo Diretor de Pesquisa e Computação Científica da Organização Européia Para Pesquisa Nuclear (CERN), Prof. Dr. Sergio Bertolucci. Simultaneamente, o FAPESP e a Universidade Estadual Paulista (UNESP) assinaram Memorando de Entendimento visando a participação de pesquisadores do Estado de 3

São Paulo na Colaboração Worldwide LHC Computing Grid. Vale lembrar que devido a assinatura desses documento o SPRACE tornou-se o único membro brasileiro no WLCG. Para isso o SPRACE comprometeu-se a manter sua infraestrutura atualizada conforme os requisitos mínimos ditados pelo WLCG para uma unidade Tier2. Assim o SPRACE depende do financiamento continuado para implantar as sucessivas ampliações de sua infraestrutura de processamento e armazenamento, conforme requerido pelo WLCG. Atualmente o sistema de armazenamento do SPRACE dispõe de uma capacidade consideravelmente inferior à recomendada pelo WLCG, de modo que se faz necessária a aquisição de grande quantidade de discos para continuarmos participando do esforço global de processamento do experimento nos níveis requeridos. III. Objetivos e Metas O WLCG, através do documento Tier 1 & Tier 2 Pledge and Resources Table 1, estabelece as capacidades requeridas dos recursos computacionais para as unidades de processamento de níveis 1 e 2 (Tiers 1 e 2) dos quatro experimentos do LHC. Na tabela abaixo, apresentamos os valores totais das capacidades requeridas dos recursos computacionais para as unidades de processamento de nível 2 do CMS. T2 CMS 2010 Oferecido Requerido CPU (HEP-SPEC06) 196221 195000 Disk (TB) 13627 9200 Número total de Tiers 2 34 Considerando a média por unidade de nível 2, observamos na tabela abaixo que o SPRACE apresenta déficit tanto de poder computacional quanto, e principalmente, de poder de armazenamento, quando comparado à média requerida e oferecida por uma unidade Tier 2. Média por Tier 2 CMS 2010 Oferecido Requerido SPRACE CPU (HEP-SPEC06) 5771 5735 3200 Disk (TB) 400 270 120 Portanto, para se adequar ao valor médio requerido pelo WLCG às unidades Tier 2 do CMS, a capacidade de armazenamento do cluster do SPRACE deveria ser de 270 TB. Como a capacidade de armazenamento atualmente instalada é de 120 TB, há um déficit de 150 TB de armazenamento para nos equipararmos aos requerimentos mínimos do WLCG. 1 http://lcg.web.cern.ch/lcg/resources/wlcgresources-2009-2010_12apr10.pdf 4

IV. Metodologia A opção de armazenamento mais utilizada pelos centros similares ao SPRACE tem sido a de se utilizar servidores dedicados de armazenamento. Esses servidores podem controlar diversas unidades de disco do tipo Serial ATA, de baixo custo, de até 2 TB cada. A aquisição de servidores desse tipo, totalizando uma capacidade de armazenamento de pelo menos 150 TB, será suficiente para que o SPRACE possa satisfazer aos requerimentos mínimos estabelecidos pelo WLCG. Para cobrir o crescimento da capacidade de armazenamento, esperamos contar com a subvenção do CNPq através deste projeto. Dessa forma, estamos solicitando a aquisição de um conjunto de servidores de armazenamento, totalizando uma capacidade de armazenamento de pelo menos 150 TB, em concordância com as especificações estabelecidas pela colaboração. V. Contribuições Científicas O fato da contribuição do SPRACE aos experimentos DZero e CMS ocorrer localmente, com hardware instalado e mantido no Brasil, nos capacita a produzir análise de dados na busca de sinais de Física Além do Modelo Padrão de forma muito mais ágil e eficiente. A proximidade da infraestrutura física do cluster permite que muitos dos serviços que necessitam ser prestados para a colaboração, como forma de manter o experimento em funcionamento (shifts), possam ser executados aqui mesmo no Brasil, reduzindo assim o número de deslocamentos dos pesquisadores até o CERN. Além disso, o SPRACE tem gerado competência em áreas como computação de alto desempenho, processamento distribuído, redes computacionais de alto desempenho, etc. VI. Orçamento Servidores dedicados de armazenamento são oferecidos por diversos fornecedores de primeira linha, como a Dell, HP, SGI, SUN, entre outros. Contatos com alguns desses fornecedores indicaram que, considerando uma verba de R$150.000,00, a aquisição de um sistema de armazenamento da ordem de 150TB só é possível através de uma aquisição internacional, com os custos estimados na tabela abaixo: Ítem Servidor de armazenamento de 150TB Taxas de importação Total Preço R$130.000,00 R$20.000,00 R$150.000,00 5

VII. Cronograma O hardware solicitado será instalado imediatamente após sua aquisição, entrando em operação tão logo se completem as configurações de software, pois o objetivo é diminuir rapidamente o déficit do SPRACE em relação aos requisitos do WLCG. O prazo estimado para o término dos procedimentos de instalação e configuração após o recebimento do hardware é de duas semanas. VIII. Participantes do Projeto Nome Instituição Vínculo Função na Equipe Sérgio Novaes UNESP Professor Coordenador, CMS/D0 Eduardo Gregores UFABC Professor Vice-Coordenador, CMS/D0 Sandra Padula UNESP Professor Pesquisador, CMS Pedro Mercadante UNESP Professor Pesquisador, D0 Marco Dias UFRN Professor Pesquisador, CMS Sérgio Lietti UNESP Pesquisador CLT Pesquisador, D0 Franciole Marinho UNESP Pos-Doutor Fapesp Pesquisador, CMS Rogério Iope UNESP Técnico Especializado Engenheiro, CMS IX. Colaborações e Parcerias O grupo SPRACE mantém colaborações científicas com os Experimentos de Física de Altas Energias DZero do Fermilab CMS do CERN. X. Infraestrutura e Apoio Técnico Os equipamentos do SPRACE estão instalados no data center do Núcleo de Computação Científica da UNESP, que conta com sistemas de refrigeração, de fornecimento de energia elétrica, de rede e de segurança com alto grau de confiabilidade. Além disso, conta com o apoio de técnicos especializados para a manutenção de suas operações. 6

XI. Estimativa de Recursos de Outras Fontes Os equipamentos que compõem o cluster do SPRACE foram adquiridos em quatro fases ao longo de 6 anos, financiados por dois Projetos Temáticos da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), totalizando R$ 2.000.000,00 de investimento, aproximadamente. Todas as aquisições foram realizadas através de tomada de preços entre fornecedores nacionais de equipamentos voltados à computação de alto desempenho. São Paulo, 1 de julho de 2010. Sérgio Ferraz Novaes 7