Julho 2010 Aumento da Capacidade de Armazenamento do SPRACE São Paulo Regional Analysis Center Sergio Ferraz Novaes
Sumário I. IDENTIFICAÇÃO DA PROPOSTA... 3 II. QUALIFICAÇÃO DO PROBLEMA... 3 III. OBJETIVOS E METAS... 4 IV. METODOLOGIA... 5 V. CONTRIBUIÇÕES CIENTÍFICAS... 5 VI. ORÇAMENTO... 5 VII. CRONOGRAMA... 6 VIII. PARTICIPANTES DO PROJETO... 6 IX. COLABORAÇÕES E PARCERIAS... 6 X. INFRAESTRUTURA E APOIO TÉCNICO... 6 XI. ESTIMATIVA DE RECURSOS DE OUTRAS FONTES... 7 2
I. Identificação da Proposta Título Aumento da Capacidade de Armazenamento do SPRACE Pesquisador Responsável Sérgio Ferraz Novaes II. Qualificação do Problema Em 2003, o grupo paulista que atua nas Colaborações DZero do Fermilab e CMS do CERN formou o Centro Regional de Análises de São Paulo SPRACE, com recursos da FAPESP, para capacitar os pesquisadores de São Paulo a realizar análise de dados e colaborar com a produção de simulação de Monte Carlo, (re)processamento e armazenamento de dados dos experimentos DZero no Fermilab e CMS no CERN. Simultaneamente à participação no esforço global de processamento de dados das colaborações às quais pertence, o grupo do SPRACE desenvolve, também, investigação científica na área de busca por nova física nesses experimentos, atuando principalmente, mas não somente, na procura por indícios da existência, em suas várias formas, de dimensões extras espaciais. O SPRACE também provê infraestrutura para treinamento a distância em física de altas energias, realiza projetos de extensão em ensino de física de partículas elementares para o ensino médio e lidera o desenvolvimento de projetos de computação científica de alto desempenho. Uma linha de pesquisa em pleno desenvolvimento na área de computação é a denominada computação em grid (Grid-Computing). Esse desenvolvimento permite que recursos computacionais distribuídos geograficamente sejam utilizados de forma agregada, operando como um sistema unificado. Atualmente, a simulação, o processamento, o armazenamento e a análise de dados dos experimentos DZero e CMS se dão, no SPRACE, através do ambiente de grid desenvolvido pelo Open Science Grid OSG, uma iniciativa de Grid americana voltada para a pesquisa científica. O uso do middleware provido pelo OSG torna o SPRACE capaz de oferecer sua infraestrutura computacional para o processamento de dados de várias organizações virtuais, notadamente o DZero e o CMS. O SPRACE é também parte integrante da infraestrutura distribuída de processamento de dados do Worldwide LHC Computing Grid WLCG, atuando como uma unidade de nível 2 (Tier 2) na estrutura de Grid do LHC. A participação do SPRACE no WLCG foi oficializada através da assinatura do Memorando de Entendimento para Colaboração na Implantação e Utilização do Grid Computacional Mundial do LHC assinado pelo Presidente da Fundação de Amparo à Pesquisa do Estado de São Paulo, Prof. Dr. Celso Lafer, e pelo Diretor de Pesquisa e Computação Científica da Organização Européia Para Pesquisa Nuclear (CERN), Prof. Dr. Sergio Bertolucci. Simultaneamente, o FAPESP e a Universidade Estadual Paulista (UNESP) assinaram Memorando de Entendimento visando a participação de pesquisadores do Estado de 3
São Paulo na Colaboração Worldwide LHC Computing Grid. Vale lembrar que devido a assinatura desses documento o SPRACE tornou-se o único membro brasileiro no WLCG. Para isso o SPRACE comprometeu-se a manter sua infraestrutura atualizada conforme os requisitos mínimos ditados pelo WLCG para uma unidade Tier2. Assim o SPRACE depende do financiamento continuado para implantar as sucessivas ampliações de sua infraestrutura de processamento e armazenamento, conforme requerido pelo WLCG. Atualmente o sistema de armazenamento do SPRACE dispõe de uma capacidade consideravelmente inferior à recomendada pelo WLCG, de modo que se faz necessária a aquisição de grande quantidade de discos para continuarmos participando do esforço global de processamento do experimento nos níveis requeridos. III. Objetivos e Metas O WLCG, através do documento Tier 1 & Tier 2 Pledge and Resources Table 1, estabelece as capacidades requeridas dos recursos computacionais para as unidades de processamento de níveis 1 e 2 (Tiers 1 e 2) dos quatro experimentos do LHC. Na tabela abaixo, apresentamos os valores totais das capacidades requeridas dos recursos computacionais para as unidades de processamento de nível 2 do CMS. T2 CMS 2010 Oferecido Requerido CPU (HEP-SPEC06) 196221 195000 Disk (TB) 13627 9200 Número total de Tiers 2 34 Considerando a média por unidade de nível 2, observamos na tabela abaixo que o SPRACE apresenta déficit tanto de poder computacional quanto, e principalmente, de poder de armazenamento, quando comparado à média requerida e oferecida por uma unidade Tier 2. Média por Tier 2 CMS 2010 Oferecido Requerido SPRACE CPU (HEP-SPEC06) 5771 5735 3200 Disk (TB) 400 270 120 Portanto, para se adequar ao valor médio requerido pelo WLCG às unidades Tier 2 do CMS, a capacidade de armazenamento do cluster do SPRACE deveria ser de 270 TB. Como a capacidade de armazenamento atualmente instalada é de 120 TB, há um déficit de 150 TB de armazenamento para nos equipararmos aos requerimentos mínimos do WLCG. 1 http://lcg.web.cern.ch/lcg/resources/wlcgresources-2009-2010_12apr10.pdf 4
IV. Metodologia A opção de armazenamento mais utilizada pelos centros similares ao SPRACE tem sido a de se utilizar servidores dedicados de armazenamento. Esses servidores podem controlar diversas unidades de disco do tipo Serial ATA, de baixo custo, de até 2 TB cada. A aquisição de servidores desse tipo, totalizando uma capacidade de armazenamento de pelo menos 150 TB, será suficiente para que o SPRACE possa satisfazer aos requerimentos mínimos estabelecidos pelo WLCG. Para cobrir o crescimento da capacidade de armazenamento, esperamos contar com a subvenção do CNPq através deste projeto. Dessa forma, estamos solicitando a aquisição de um conjunto de servidores de armazenamento, totalizando uma capacidade de armazenamento de pelo menos 150 TB, em concordância com as especificações estabelecidas pela colaboração. V. Contribuições Científicas O fato da contribuição do SPRACE aos experimentos DZero e CMS ocorrer localmente, com hardware instalado e mantido no Brasil, nos capacita a produzir análise de dados na busca de sinais de Física Além do Modelo Padrão de forma muito mais ágil e eficiente. A proximidade da infraestrutura física do cluster permite que muitos dos serviços que necessitam ser prestados para a colaboração, como forma de manter o experimento em funcionamento (shifts), possam ser executados aqui mesmo no Brasil, reduzindo assim o número de deslocamentos dos pesquisadores até o CERN. Além disso, o SPRACE tem gerado competência em áreas como computação de alto desempenho, processamento distribuído, redes computacionais de alto desempenho, etc. VI. Orçamento Servidores dedicados de armazenamento são oferecidos por diversos fornecedores de primeira linha, como a Dell, HP, SGI, SUN, entre outros. Contatos com alguns desses fornecedores indicaram que, considerando uma verba de R$150.000,00, a aquisição de um sistema de armazenamento da ordem de 150TB só é possível através de uma aquisição internacional, com os custos estimados na tabela abaixo: Ítem Servidor de armazenamento de 150TB Taxas de importação Total Preço R$130.000,00 R$20.000,00 R$150.000,00 5
VII. Cronograma O hardware solicitado será instalado imediatamente após sua aquisição, entrando em operação tão logo se completem as configurações de software, pois o objetivo é diminuir rapidamente o déficit do SPRACE em relação aos requisitos do WLCG. O prazo estimado para o término dos procedimentos de instalação e configuração após o recebimento do hardware é de duas semanas. VIII. Participantes do Projeto Nome Instituição Vínculo Função na Equipe Sérgio Novaes UNESP Professor Coordenador, CMS/D0 Eduardo Gregores UFABC Professor Vice-Coordenador, CMS/D0 Sandra Padula UNESP Professor Pesquisador, CMS Pedro Mercadante UNESP Professor Pesquisador, D0 Marco Dias UFRN Professor Pesquisador, CMS Sérgio Lietti UNESP Pesquisador CLT Pesquisador, D0 Franciole Marinho UNESP Pos-Doutor Fapesp Pesquisador, CMS Rogério Iope UNESP Técnico Especializado Engenheiro, CMS IX. Colaborações e Parcerias O grupo SPRACE mantém colaborações científicas com os Experimentos de Física de Altas Energias DZero do Fermilab CMS do CERN. X. Infraestrutura e Apoio Técnico Os equipamentos do SPRACE estão instalados no data center do Núcleo de Computação Científica da UNESP, que conta com sistemas de refrigeração, de fornecimento de energia elétrica, de rede e de segurança com alto grau de confiabilidade. Além disso, conta com o apoio de técnicos especializados para a manutenção de suas operações. 6
XI. Estimativa de Recursos de Outras Fontes Os equipamentos que compõem o cluster do SPRACE foram adquiridos em quatro fases ao longo de 6 anos, financiados por dois Projetos Temáticos da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), totalizando R$ 2.000.000,00 de investimento, aproximadamente. Todas as aquisições foram realizadas através de tomada de preços entre fornecedores nacionais de equipamentos voltados à computação de alto desempenho. São Paulo, 1 de julho de 2010. Sérgio Ferraz Novaes 7