GridUNESP: Status do Projeto S. F. Novaes UNESP IV Workshop do GridUNESP Dezembro 2008
Objetivos do Workshop Apresentar o status do projeto Apresentar a equipe técnica Discutir as próximas etapas da implementação Discutir as necessidades dos grupos Características das tarefas Perfil dos usuários Job a serem submetidos Discutir política de uso Incentivar maior envolvimento dos pesquisadores 2
Programa do Workshop Manhã Status do Projeto, Sergio Novaes Estratégia de Implantação do GridUNESP, Sérgio Lietti Implantação do Software e Middleware, Gabriel von Winckler Estrutura do Treinamento em Grid/HPC, Matheus Lobo A Rede do GridUNESP: KyaTera e MetroSampa, José Roberto Gimenez Primeiros Contatos com Ambiente de Grid, Allan Szu e Jadir Silva Política de Uso do GridUNESP, José Nelson Falavinha Junior SuperComputing 2008: BWC, Eduardo Bach Tarde Visita Gary Serda, Strategic Programs Manager - Sun Microsystems Projetos científicos e a utilização da infra-estrutura do GridUNESP ARARAQUARA - Instituto de Química BAURU - Faculdade de Ciências BOTUCATU - Instituto de Biociências ILHA SOLTEIRA - Faculdade de Engenharia RIO CLARO - Instituto de Geociências e Ciências Exatas SÃO JOSÉ DO RIO PRETO - Depto. Ciência da Computação e Estatística SÃO PAULO - Instituto de Física Teórica Sessão de discussão: Perspectivas de Médio e Longo Prazo do GridUNESP. 3
Compra do Equipamento Processo de Aquisição dos clusters Solicitação de Informação Técnica: 7 fornecedores Solicitação de Propostas: 5 fornecedores: IBM, Dell, HP, SGI e Sun Proposta analisados por comissão multi-institucional Sun: Melhor proposta técnica e melhor preço Comparação Netuno (UFRJ) GridUNESP Data Maio/2008 Junhyo/2008 Processadores 2.6 GHz 2.83 GHz Servidores 256 (256 + 7 X 6) = 368 Processamento (TFlops) 2.7 33.3 Preço R$ 5.000.000,00 R$ 2.96.996,00 Preço/TFlop R$ 230,4 R$ 87,60 (38,02%) http://www.agencia.fapesp.br/materia/88/noticias/poderoso-netuno.htm0 4
Clusters: 33.3 TeraFlops Central Cluster (2,048 cores) 4 Servers 256 two Quad Core nodes RAID =08 TB Infiniband technology Distributed Clusters (896 cores) Server 6 two Quad Core nodes RAID = 2 TB Gigabit 7 X 5
Barra Funda: Incluída na MetroSampa PUC PL Pina cote ca FAPESP SP P FUNART -S Estação Ciência PUC a M PU k ar m rre ie Te ckenzc te es US CEFET PUC Mackenzie USP-FAU CEUMA UNESP-CEDEM INCOR USP-FD IPT UNESP - IFT Inst. Dante Pazzanese us USP-MAC Hosp.SP USP-FM Reabilitação Se ga ll USP-FM PUC -DERDIC Registro BR UNIFESP USP-MP er Inst.Butantan M IPEN La s CCE HU UNESPUNESP-Reitoria USPPUC D.IAIÁ USP-MZ eu USP LSI Cinemateca ANSP Academic Network at Sao Paulo BIREME Centro Latino-Americano e do Caribe de Informação em Ciências da Saúde CEFET Centro Federal de Educação Tecnológica IButantan Instituto Butantan InCOR Fundação Zerbini/Instituto do Coração IPEN Instituto de Pesquisas Energéticas e Núcleares IPT Instituto de Pesquisas Tecnológicas do Estado de São Paulo Mackenzie Universidade Presbiteriana Mackenzie PUC Pontifícia Universidade Católica RNP Rede Nacional de Ensino e Pesquisa UNESP Universidade Estadual Paulista UNIFESP Universidade Federal de São Paulo Escola Paulista de Medicina USP Universidade de São Paulo UNESP-INST.ARTES BIREME CIENTEC 6
Rede KyaTera-GridUNESP Ilha Solteira Unesp São José Rio Preto Unesp Catanduva Unesp Araraquara Ribeirão Preto USP 4 5 km USP Baurú Gb/s 0 Gb/s Rede Experimental Amplificadores ópticos COC 6 UFSCar Rio Claro UNESP USP São Carlos UNESP Botucatú Americana Internacional UNISANTOS Santos UNICAMP Terremark Campinas 2 USP20 São Paulo UF ABC Sto André 2 Arujá CPqD PUCC CenPRA ITA São José Campos Mackenzie Barra Funda
Data Center: Barra Funda Pregão realizado em 4/Novembro Entrega: ~ 30/abril/2008 Nova Data: Fevereiro/2009 9
Assinada em 25/Novembro/2008 Parceria Open Science Grid 0
Contratação de Pessoal Vagas aprovadas pelo CADE: Unesp: Analistas de Informática Contratados pela Vunesp Fundunesp Ampla divulgação das vagas a nível nacional 33 Inscritos Comissão multi-institucional para análise das inscrições Análise de Currículo e Proposta de Trabalho Entrevista com os 9 melhores colocados Lista com classificação dos 9 entrevistados Nova entrevista com todos os indicados
Distribuição de Trabalho Sergio Lietti Servidores e clusters: operação e suporte (SO e serviços básicos) Monitoração e gerenciamento geral dos sistemas e da rede Engenharia de middleware (OSG) Planejamento estratégico Rogério Iope Infra-estrutura de rede: operação e suporte Monitoração e gerenciamento geral dos sistemas e da rede Engenharia de middleware (OSG) Planejamento estratégico Marco Dias Servidores e clusters: operação e suporte (SO e serviços básicos) Engenharia de middleware (OSG) Allan Szu e Jadir Silva Infra-estrutura de rede e sistemas: operação e suporte Monitoração e gerenciamento geral dos sistemas e da rede Gabriel von Winckler Servidores e clusters: operação e suporte (SO e serviços básicos) Engenharia de middleware (OSG) Desenvolvimento e suporte às aplicações científicas Matheus Lobo Treinamento e suporte aos usuários Desenvolvimento e suporte às aplicações científicas Desenvolvimento de software básico e aplicações web 2
Resolução: PROPE/CEPE/CO DOE 3/Novembro/2008 Núcleo de Computação Científica 3
Outras Ações Portal de submissão de jobs Contratado: diretrizes do OSG Aguardando pagamento EduGrid Projeto lançado Expansão para outras instituições Grid do Estado de São Paulo (?) Treinamento do pessoal contratado Experiência no SPRACE Treinamento no CERN: 2 X 3 meses (Financiamento Comunidade Européia) Treinamento nos EUA: 2 X workshop (Financiamento EUA) Workshop SLAC + Visita a Caltech: (Financiamento particular) II Brazilian LHC Computing Workshop (Financiamento MCT/Renafae) Criação de uma Certification Authority no Estado de São Paulo Unidade certificadora na ANSP Criação de centro de treinamento Geração de conteúdo em HPC no NCC Alavancar pesquisa em redes ópticas avançadas Circuitos dinâmicos acinonados sob demanda (KyaTera + Internet2+ PadTec + Caltech+...) 4
AÇÕES