Projeto Temático. Centro Regional de Análise de São Paulo: Participação nos Experimentos DZero e CMS



Documentos relacionados
Aumento da Capacidade de Armazenamento do SPRACE

Operações do SPRACE: DØD

Programas de Professores no CERN inspiram a próxima geração de cientistas

Estudo do grande colisor de hádrons

Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP

EDUCAÇÃO SUPERIOR, INOVAÇÃO E PARQUES TECNOLÓGICOS

Planejamento para Implantação do GridUnesp. II Workshop GridUnesp Outubro de 2006

Resultados da Lei de Informática - Uma Avaliação. Parte 4 - Programas Prioritários em Informática

Grid Computing: Processamento de Alto Desempenho em Rede

Introdução à Física de Altas Energias SPRACE

O Experimento CMS Parte 2/2

Programa Nacional de Mestrado Profissional em Ensino de Física (MNPEF)

IDÉIAS SOBRE IMPLANTAÇÃO DE SISTEMAS EMPRESARIAIS INTEGRADOS. Prof. Eduardo H. S. Oliveira

aceleradores e detectores na física de partículas elementares

Administração de Sistemas de Informação Gerenciais

UM BREVE RELATO SOBRE A HISTÓRIA DA RADIAÇÃO CÓSMICA DE FUNDO

Processos de Desenvolvimento de Software

CAMPUS XANXERÊ CHAMADA PÚBLICA

RIO TERÁ ICECUBE, 'CUBO' DE GELO COM VOLUME DEZ VEZES MAIOR QUE O PÃO DE AÇUÇAR

CHAMADA PÚBLICA 2015

UNICENTRO-CEDETEG Departamento de Física. Projeto de Ensino. Ensino de Física: O futuro da energia - A antimatéria

CONFAP- UK ACADEMIAS Fellowships, Research Mobility, and Young Investigator Awards for UK researchers in Brazil

PEN - Processo de Entendimento das Necessidades de Negócio Versão 1.4.0

um experimento dedicado a estudar a composição de partículas primárias de raios cósmicos e interações hadrônicas de altas energias.

1

COMPUTADORES NAS EMPRESAS Cloud Computing Prof. Reginaldo Brito

SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO

Laboratório de Instrumentação e Física Experimental de Partículas

Seção 2/E Monitoramento, Avaliação e Aprendizagem

CENTRO UNIVERSITÁRIO ESTÁCIO RADIAL DE SÃO PAULO SÍNTESE DO PROJETO PEDAGÓGICO DE CURSO 1

IW10. Rev.: 02. Especificações Técnicas

Processos Técnicos - Aulas 4 e 5

Cinco principais qualidades dos melhores professores de Escolas de Negócios

Pequenas e Médias Empresas no Canadá. Pequenos Negócios Conceito e Principais instituições de Apoio aos Pequenos Negócios

Mesa Redonda Novas agendas de atuação e os perfis profissionais em bibliotecas universitárias

TAM: o espírito de servir no SAC 2.0

RESPOSTA AO QUESTIONAMENTO FORMULADO POR EMPRESA INTERESSADA NO CERTAME.

Projeto: Atualização da Infra-estrutura de Comunicação por Videoconferência, para promover as Atividades de Pesquisa multicampus.

Programa Centros Associados para o Fortalecimento da Pós-Graduação Brasil/Argentina - (CAFP/BA) Edital CGCI n. 028 /2007

Projeto BVS-SP-1.9 Publicação eletrônica de textos completos em Saúde Pública (15 de outubro de 1999)

Detectores de Partículas: Tiago dos Anjos

Colaboração na experiência ATLAS (LHC)

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software

CHAMADA PÚBLICA 2014

Uma história de sucesso do Programa Marie Curie em Portugal

IMPLANTAÇÃO DO SISTEMA DE GESTÃO DO TRABALHO SEGURO SGTS NA LIGHT

DIMENSIONANDO PROJETOS DE WEB-ENABLING. Uma aplicação da Análise de Pontos de Função. Dimensionando projetos de Web- Enabling

CHAMADA PÚBLICA 2015

Projeto Você pede, eu registro.

A Teoria de Cordas e a Unificação das Forças da Natureza p. 1/29

PRODUÇÃO DE MATERIAL DIDÁTICO VOLTADO AO ENSINO DE FÍSICA E A INCLUSÃO NO ENSINO DE FÍSICA

TERMO DE REFERÊNCIA (TR) GAUD VAGA

Lista de Atividades Realizadas dos Autores do ATLAS (Dezembro/2011 a Novembro/2012)

Oportunidades de Patrocínio. cloudstackday. 12/02/2015 São Paulo. Auditório István Jancsó Universidade de São Paulo

PROPOSTA PARA UM SUPORTE ADEQUADO ÀS REDES LOCAIS NA UFSCar Prof. Néocles Alves Pereira Secretário Geral de Informática

MASSACHUSETTS INSTITUTE OF TECHNOLOGY Sloan School of Management

Edital do Programa Jovens Talentos para a Ciência 2014/2015

Observação de uma nova partícula com uma massa de 125 GeV

UNIVERSIDADE DO ESTADO DA BAHIA UNEB DEPARTAMENTO DE EDUCAÇÃO CAMPUS XII / GUANAMBI BA REGIMENTO INTERNO

Comunidade de Prática Internacional para apoiar o fortalecimento e liderança da BIREME OPAS/OMS Fortalecimento institucional da BIREME OPAS/OMS

Profa. Gislaine Stachissini. Unidade III GOVERNANÇA DE TI

Cadastro das Principais

QUALIFICAÇÃO E PARTICIPAÇÃO DE PROFESSORES DAS UNIDADES DE ENSINO NA ELABORAÇÃO DE PROGRAMAS FORMAIS DE EDUCAÇÃO AMBIENTAL

FANESE Faculdade de Administração e Negócios de Sergipe

Observatórios Virtuais

UTILIZAÇÃO DO AMBIENTE COLABORATIVO TIDIA-AE PELO GRUPO DE GERENCIAMENTO DO VOCABULÁRIO CONTROLADO DO SIBiUSP - BIÊNIO

A consolidação de servidores traz uma séria de vantagens, como por exemplo:

3 Classificação Resumo do algoritmo proposto

Importância da normalização para as Micro e Pequenas Empresas 1. Normas só são importantes para as grandes empresas...

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

UNIVERSIDADE DO ESTADO DO RIO DE JANEIRO

Edital 1/2014. Chamada contínua para incubação de empresas e projetos de base tecnológica

Programa UNIBRAL Edital CGCI n. 014 /2007

Manual do Integrador. Programa de Formação

Gerenciamento de Incidentes

CASO DE SUCESSO SENAI

RESOLUÇÃO Nº 080/2014, DE 25 DE JUNHO DE 2014 CONSELHO UNIVERSITÁRIO UNIVERSIDADE FEDERAL DE ALFENAS UNIFAL-MG

FMC: Alinhando Tradição com Inovação através da Integração de Pessoas e Processos com Soluções de TI

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr.

[ Empowering Business, Architecting IT. ]

Regulamento do projeto "50 Telhados"

COMUNICADO n o 001/2012 ÁREA DE CIÊNCIA DA COMPUTAÇÃO ORIENTAÇÕES PARA NOVOS APCNS 2012 Brasília, 22 de Maio de 2012

Análise de Sistemas. Visão Geral: Orientação a Objetos. Prof. José Honorato Ferreira Nunes honorato.nunes@bonfim.ifbaiano.edu.br

Uma Breve Introdução à Física de Partículas O DEE-UFBA na Colaboração do Detector ATLAS do LHC

MINUTA DE RESOLUÇÃO Nº 00, DE XX DE XXXXX DE 2015.

CEDOPE - CENTRO DE DOCUMENTAÇÃO E PESQUISA DE HIS- TÓRIA DOS DOMÍNIOS PORTUGUESES

O Acordo de Haia Relativo ao Registro. Internacional de Desenhos Industriais: Principais características e vantagens

Pró-Reitoria de Pesquisa. Escritório de Pesquisa Internacional

ü Curso - Bacharelado em Sistemas de Informação

2. Representação Numérica

ser alcançada através de diferentes tecnologias, sendo as principais listadas abaixo: DSL (Digital Subscriber Line) Transmissão de dados no mesmo

TI em Números Como identificar e mostrar o real valor da TI

Prof. Samuel Henrique Bucke Brito

1 Introduc ao 1.1 Hist orico

Transcrição:

São Paulo Regional Analysis Center SPRACE Abril 2008 Projeto Temático Centro Regional de Análise de São Paulo: Participação nos Experimentos DZero e CMS Universidade de São Paulo (USP) Universidade Estadual Paulista (UNESP) Universidade Federal do ABC (UFABC)

Índice I. RESUMO... 6 II. SUMMARY... 7 III. INTRODUÇÃO... 8 Física de Altas Energias... 8 Participação no Fermilab... 9 Participação no CERN... 9 As Iniciativas de Grid... 10 Pesquisas em Redes Ópticas Avançadas... 11 Breve Histórico e Produção Científica do Grupo... 11 Principais Resultados Obtidos... 12 IV. A FÍSICA DE ALTAS ENERGIAS EM ACELERADORES... 16 Introdução... 16 Principais Desafios... 17 Modelo Padrão... 18 Interações fortes... 18 Quark Top... 19 Física Eletrofraca... 19 Bóson de Higgs... 19 Física Além do Modelo Padrão... 21 Supersimetria... 21 Dimensões Extras... 22 Nova Dinâmica na Região de 1 TeV... 24 Novos Bósons de Gauge... 24 V. OS EXPERIMENTOS DZERO E CMS... 25 O Experimento DZero... 25 Sistema de Rastreamento Central (CT)... 26 Sistema de Calorímetros... 28 Sistema de Múons... 28 2

Sistema de Detectores de Prótons Frontais... 29 O Experimento CMS... 30 Sistema de Rastreamento... 31 Calorímetro Eletromagnético... 33 Calorímetro Hadrônico... 34 Sistema de Múons... 35 VI. ANÁLISES FÍSICAS... 38 Introdução... 38 Análises Físicas no DZero.... 38 O Processo de Análises dos Dados... 38 Análise em Dimensões Extras Universais: Resultados parciais... 40 Análises Físicas no CMS... 43 O Sistema de Software do CMS... 43 Participação nos grupos de análise no CMS... 47 VII. PROCESSAMENTO DE DADOS... 50 O SPRACE e o Processamento no CMS... 50 Infra-Estrutura Física... 51 Espaço físico e recursos computacionais... 51 Infra-estrutura de rede elétrica... 51 Infra-estrutura de rede de dados... 52 Infra-estrutura de processamento e armazenamento de dados... 59 Infra-Estrutura de Software... 61 Elemento de Computação... 64 Nós de Trabalho... 65 Elemento de Armazenamento... 65 Nós de Armazenamento do dcache... 66 VIII. COLABORAÇÕES E PARCERIAS... 67 Nacionais... 67 DFNAE/UERJ: Departamento de Física Nuclear e Altas Energias... 67 Projeto Giga: Rede Nacional de Ensino e Pesquisa... 68 Projeto KyaTera: TI no Desenvolvimento da Internet Avançada... 71 Internacionais... 74 OSG: Open Science Grid... 74 CHEPREO:... 78 3

Center for High Energy Physics Research & Education Outreach... 78 UltraLight: Ultrascale Information System for Data Intensive Research... 79 EELA: E-infrastructure shared between Europe and Latin America... 83 IX. PROJETOS INDUZIDOS... 86 GridUNESP... 86 Grid Educacional... 89 Um Cartaz em Cada Escola... 93 MasterClass... 95 X. PEDIDOS ASSOCIADOS E COMPLEMENTARES... 96 XI. CRONOGRAMA DE EXECUÇÃO... 97 XII. ORÇAMENTO FINANCEIRO: JUSTIFICATIVAS... 98 Introdução... 98 Justificativas técnicas para o orçamento de hardware... 101 Justificativa Detalhada... 103 Aumento do poder de processamento...103 Aumento da capacidade de armazenamento...104 Aquisição de equipamento de rede adequado...105 Aquisição de servidores de apoio...106 Ampliação da capacidade de backup...106 Equipamentos, partes e peças auxiliares para o datacenter...107 Equipamentos auxiliares para apoio à pesquisa...109 Serviços de Terceiros no Exterior M&O... 109 XIII. RESUMO DO ORÇAMENTO SOLICITADO...113 XIV. DESCRIÇÃO DA EQUIPE...117 XV. RESULTADOS DE AUXÍLIOS ANTERIORES...121 Projeto Temático da FAPESP...121 Jovem Pesquisador em Centros Emergentes da FAPESP...121 ProINFRA 01/2005 do MCT/FINEP/CT-INFRA...121 Projetos de Difusão e Popularização da Ciência e Tecnologia do CNPq...121 Visita, Estágio, Curso ou Intercâmbio do CNPq...122 Visita, Estágio, Curso ou Intercâmbio do CNPq...122 XVI. MÉTRICA E AVALIAÇÃO...123 4

XVII. CARTAS DE APOIO AO PROJETO...124 APÊNDICES...131 Projetos de Iniciação Científica... 132 Fundamentos da Física Experimental de Altas Energias...133 Bases Experimentais da Física de Altas Energias...135 Computação em Física Experimental de Altas Energias...137 Projetos de Pós-Doutorado... 139 A Física de Quarks Pesados no CMS...140 Busca por Supersimetria no CMS...143 Busca por Dimensões Extras no CMS...146 Busca por Dimensões Extras de Randall-Sundrun...149 Projetos de Treinamento Técnico... 151 Administração dos Sistemas de Processamento e de Armazenamento...152 Administração de Rede e de Infra-Estrutura Computacional...154 5

I. Resumo A Física de Altas Energias tem por objetivo investigar a natureza dos constituintes elementares da matéria e as interações fundamentais. Os aceleradores de partículas têm desempenhado um papel fundamental nestas investigações, sendo o Tevatron do Fermilab e o Large Hadron Collider do CERN os mais potentes já construídos. Reconhecendo a importância da participação de pesquisadores do Estado de São Paulo nos experimentos que são realizados nestes aceleradores, foi criado em 2003, com o apoio da FAPESP, o Centro Regional de Análise de São Paulo (São Paulo Regional Analysis Center SPRACE), o qual congrega os pesquisadores de instituições paulistas atuando nas colaborações DZero do Fermilab e Compact Muon Solenoid (CMS) do CERN. Para dar suporte aos pesquisadores e contribuir para o processamento, armazenamento e análise dos dados produzidos nesses experimentos, foi implantado um centro de computação que conta atualmente com mais de um Teraflop de poder de processamento. O SPRACE iniciou suas operações de processamento de dados para o DZero em março de 2004, associado ao Distributed Organization for Scientific Analysis and Research (DOSAR). Integrou-se em seguida ao SAMGrid, o sistema de processamento distribuído do experimento DZero e, em 2005, tornou-se parte do Open Science Grid (OSG), consórcio americano de universidades, laboratórios nacionais e centros de computação, formando com estes um grande grid computacional de mútiplos propósitos. Através da infra-estrutura de middleware do OSG, o SPRACE vem participando ativamente das atividades de processamento de dados do experimento DZero e atuando como uma Tier-2 da estrutura computacional hierárquica do experimento CMS, em preparação para a entrada em operação do LHC em 2008. Os membros do SPRACE participam da análise física dos dados produzidos pelo DZero associados ao grupo de Novos Fenômenos da colaboração, o qual procura por sinais de Física Além do Modelo Padrão. Em particular, estamos investigando a possibilidade de existência de novas dimensões espaciais através do estudo da produção de três léptons isolados. Estamos também nos preparando para a análise de dados do CMS, onde iniciamos investigação neste mesmo tema. O ensino e a divulgação científica tem sido uma preocupação constante do SPRACE. Vimos elaborando um conjunto de cursos de formação na área e disponibilizando o material didático na web, permitindo o acompanhamento dos cursos à distância. O projeto Estrutura Elementar da Matéria: Um Cartaz em Cada Escola permitiu que se levasse a todas as escolas do segundo grau do País informação sobre os constituintes da matéria e suas interações, provendo também um Fórum de Discussão onde estudantes e professores de todo o país possam trocar conhecimentos. O SPRACE tem interagido e gerado competência nas áreas com as quais se relaciona. Temos desempenhado um importante papel na formação de recursos humanos não apenas em Física de Altas Energias, mas também em redes ópticas de alta velocidade, processamento de alto desempenho e, acima de tudo, na arquitetura Grid de computação distribuída. Por iniciativa do SPRACE, está sendo implantado na Unesp o primeiro Campus Grid da América Latina que contará com oito centros de processamento e armazenamento de dados distribuídos pelo Estado de São Paulo e interligados através da arquitetura grid. 6

II. Summary High Energy Physics investigates the elementary constituents of matter and the fundamental interactions. Particles accelerators, like the Tevatron at Fermilab and the Large Hadron Collider at CERN, are among the most complex and sophisticated scientific instruments ever built and they have been playing a fundamental role on these investigations. The São Paulo Regional Analysis Center (SPRACE) was implemented in 2003, with financial support from FAPESP, to provide the necessary means for the participation of high energy physics researchers from the State of São Paulo in these experiments. SPRACE congregates members of the DZero Collaboration at Fermilab and of the Compact Muon Solenoid (CMS) Collaboration at CERN. The SPRACE computing center provides more than one Teraflop of computing power and it have been contributing for the processing, storage and analysis of the data produced by these experiments. SPRACE initiated its operations in March 2004, associated with the Distributed Organization for Scientific Analysis and Research (DOSAR). It was integrated soon after to the SAMGrid, the distributed processing system of the DZero experiment. In 2005, SPRACE became part of the Open Science Grid (OSG), a consortium of universities, national laboratories and computing centers, which share a grid infrastructure over research networks via a common middleware. By means of the Open Science Grid, SPRACE is actively participating in the Monte Carlo generation and data reprocessing of the DZero experiment and it has become a Tier-2 in the hierarchical computing structure that is being used by the CMS experiment in preparation for the start of LHC's operation this year. The members of SPRACE are working in the physical analysis of the data produced by DZero. We are associated to the New Phenomena group which is dedicated to the search of new physics beyond the standard model. In particular, we are investigating the possible existence of extra spatial dimensions through the study of isolated lepton production. We are also preparing ourselves for the CMS data analysis. SPRACE has a strong commitment to teaching and outreach activities. We are elaborating a set of courses in high energy physics and related subjects. This didactic material is available on the web and allowing students to use its content in distance learning. Our outreach project The Elementary Structure the Matter: A Poster in Each School has distributed to all high schools in Brazil a poster explaining the essential knowledge on this so important yet missing subject. This project is also providing a site and a discussion forum on the web to answer questions of teachers and students. SPRACE is also leveraging competences in different research areas by sharing some of the expertise generated by high energy physics spin-offs like high-speed networks, high performance computing, and grid architecture. SPRACE inspired and leads the GridUNESP project which is deploying the first Campus Grid in Latin America, composed of eight data processing and storage centers distributed all over the State of São Paulo and interconnected through the grid architecture. 7

III. Introdução Física de Altas Energias A Física de Altas Energias tem por objetivo a investigação dos constituintes fundamentais da matéria e a compreensão das forças básicas que atuam entre eles. Ela é uma das áreas da ciência de maior tradição no Brasil e seu surgimento coincide com o início da pesquisa científica em Física no Brasil na década de 1930, com a formação, por Gleb Wataghin, do grupo experimental de raios cósmicos da Universidade de São Paulo. Muitas gerações de físicos se formaram na área desde então, dentre os quais podemos destacar Marcello Damy, Cesar Lattes, José Leite Lopes, Paulus Pompéia, Roberto Salmeron, Mario Schenberg, Jorge André Swieca e Jayme Tiomno. Dentre as pesquisas de maior repercussão internacional, na área experimental, estão os trabalhos pioneiros sobre os chuveiros penetrantes e a descoberta dos mésons π, os quais contaram com a participação decisiva de Cesar Lattes. O prêmio Nobel de Física de 1950 foi concedido ao pesquisador Cecil Frank Powell, chefe do grupo da Universidade de Bristol, responsável por esta descoberta. Atualmente a Física Experimental de Altas Energias utiliza os mais complexos aparatos científicos jamais construídos, os aceleradores de partículas. Desde a década de 1980 o Brasil participa dos experimentos mais relevantes da área, os quais são realizados em aceleradores localizados nos EUA e Europa. Além de sua contribuição para a ciência básica, a Física de Altas Energias é responsável, direta ou indiretamente, por uma série de importantes avanços tecnológicos, entre os quais podemos citar: a World Wide Web, originalmente desenvolvida no CERN para compartilhar dados e informações entre físicos; o tratamento do câncer através de feixes de partículas; a construção de magnetos supercondutores que permitiram o desenvolvimento dos aparelhos de ressonância magnética; o desenvolvimento de circuitos integrados avançados e instrumentos de aquisição e processamento de dados; e a utilização de técnicas e aparatos inovadores que posteriormente vieram a ser tornar padrão, tais como as fibras ópticas. O objetivo principal desse projeto é possibilitar a participação do grupo do Centro Regional de Análise de São Paulo (São Paulo Regional Analysis Center SPRACE) 1 no experimento DZero do Tevatron no Fermi National Accelerator Laboratory (Fermilab) e no Compact Muon Solenoid (CMS) do Large Hadron Collider (LHC) no CERN. Tratam-se dos dois principais experimentos de Física de Altas Energias da atualidade: o Tevatron vem tomando dados, em seu segundo Run, desde março de 2001 e o Large Hadron Collider deverá injetar seu primeiro feixe nos próximos meses. O presente projeto permitirá que o Estado de São Paulo esteja representado nesse experimento que deverá dominar o cenário científico durante a próxima década e trazer importantes contribuições para nosso conhecimento acerca dos constituintes fundamentais da matéria e suas interações. Desde a possível descoberta do bóson de Higgs, passando pela investigação de partículas supersimétrica até a exploração dimensões extras, a pesquisa de fronteira na área certamente passará pelo LHC. 1 http://www.sprace.org.br/ 8

Participação no Fermilab Desde 1999 nosso grupo faz parte da Colaboração DZero do Fermilab, situado nas proximidades de Chicago, EUA. O Fermilab, fundado em 1967, é operado por um consórcio de universidades norte-americanas e financiado pelo Departamento de Energia (DOE). Ele tem um orçamento de aproximadamente US$ 350 milhões de dólares anuais, sendo responsável por 40% de todos os gastos dos EUA com a área. O Tevatron do Fermilab é o acelerador de partículas com maior energia em operação atualmente, possuindo 6,3 km de circunferência e colidindo prótons contra antiprótons a uma energia de 2 TeV. Seu objetivo é reproduzir as condições extremas existentes no início do Universo em seu primeiro décimo de bilionésimo de segundo após a grande explosão inicial, o Big Bang. O detector DZero tem por objetivo identificar a trajetória, energia, momento e demais características das partículas produzidas na aniquilação próton-antipróton. Com a forma de um cilindro de 14 metros de diâmetro e 20 metros de comprimento, o detector pesa 18,5 mil toneladas e possui 250 mil canais de eletrônica de coleta de dados. A colaboração internacional que trabalha com o detector DZero é formada por 670 físicos pertencentes a 84 instituições de 20 países. Desde maio de 1999 o nosso grupo paulista faz parte dessa colaboração trabalhando em hardware, software, e agora, em análise de dados. Participação no CERN O CERN, fundado em 1954 por um consórcio de 12 países europeus, é o maior laboratório de física de partículas do mundo e conta atualmente com 20 países membros. Seu acelerador, o Large Hadron Collider (LHC), iniciará suas operações em 2008 colidindo prótons com prótons a uma energia de 14 TeV. Quatro detectores compõem o aparato experimental que irá investigar as reações produzidas no LHC. Desses quatro detectores, dois deles têm propósito geral e capacidade de investigar todo e qualquer aspecto da Física envolvida nessas reações: o Atlas (A Toroidal LHC ApparatuS) e o CMS (Compact Muon Solenoid). Os demais experimentos têm um foco bastante específico e um objeto de investigação limitado. O LHCb (LHC beauty) visa estudar apenas a física do quark bottom (ou beauty) com o intuito de fazer medidas precisas da violação de CP e estudar decaimentos raros, enquanto o Alice (A Large Ion Collider Experiment) tem o objetivo de analisar colisões envolvendo íons pesados visando o estudo do plasma de quarks e glúons. A partir de 2002 nosso grupo tornou-se membro da colaboração Compact Muon Solenoid (CMS), que projetou, construiu e opera um dos detectores instalados no anel do LHC. Com 21 metros de comprimento e 15 metros de diâmetro, pesando 12,5 mil toneladas e contando com um campo magnético de 4 Tesla, o CMS tem como objetivo investigar de forma ampla e exaustiva as interações fundamentais da natureza na escala de 1 TeV. O item mais destacado de sua agenda é a busca pelo bóson de Higgs. O mecanismo que prediz a existência dessa partícula é, no Modelo Padrão, o responsável pela geração de massa das partículas elementares. A colaboração CMS envolve mais de 2 mil pesquisadores pertencentes a 182 instituições de 39 países. Colaborações desse porte requerem excelente interconexão entre os diferentes grupos, além de capacidade de processamento e análise da 9

enorme quantidade de dados que será produzida. O CMS produzirá a cada segundo uma quantidade de dados equivalente ao de 10 mil Enciclopédias Britânicas. Estima-se que em uma década esse conjunto de dados atinja a marca de Exabyte (1 bilhão de gigabytes). O tratamento do enorme volume de dados que será produzido no CERN requereu a criação de um conceito revolucionário de computação distribuída de alto desempenho: o Grid. Os experimentos do LHC adotaram um modelo hierárquico de Grid onde centros regionais espalhados pela Europa, Américas e Ásia são integrados, formando um ambiente único de processamento. De forma análoga ao que ocorreu com a World Wide Web, cuja ubiqüidade vem promovendo uma revolução em todos os setores da sociedade, espera-se que os reflexos dos Grids computacionais se façam sentir muito além da Física de Altas Energias. Recursos empregados em projetos dessa natureza são amplamente compensados pelos ganhos que trazem em forma de geração de inovação tecnológica e de competências em diversas áreas, propiciando condições excepcionais para o treinamento de profissionais em tecnologia da informação e áreas correlatas. As Iniciativas de Grid A Física de Altas Energias tem liderado internacionalmente as iniciativas na área de Grids computacionais. O alcance dessa nova arquitetura tem atingido diretamente diversas outras áreas da ciência que requerem grande poder de processamento de dados. Por exemplo, o Open Science Grid (OSG), infra-estrutura de Grid computacional norte-americana, vem processando dados para experimentos de Astronomia e Astrofísica (Sloan Digital Sky Survey e LIGO), Nanotecnologia (nanohub), Análise Genômica (ANL), Bioinformática (GRASE) e outros, além da Física de Altas Energias (ATLAS, CMS). Nosso grupo tem participado dessas iniciativas internacionais com a implantação do SPRACE. Por meio de Projeto Temático da FAPESP, foi implantado um cluster de computadores que conta hoje com 240 processadores, representando um poder computacional de mais de 1 Teraflop e 20 Terabytes de capacidade de armazenamento. O cluster do SPRACE tem se dedicado ao processamento remoto dos dados da Colaboração DZero realizado juntamente com o WestGrid do Canadá, CCIN2P3 da França, GridKa da Alemanha e com o GridPP e PPARC, da Inglaterra. O SPRACE está integrado ao Open Science Grid (OSG) 2 e ao Worldwide LHC Computing Grid (WLCG) 3 como um centro regional de classe Tier 2 do CMS, operando em conjunto com seus congêneres americanos de Caltech, Florida, MIT, Nebraska, Purdue, UC San Diego e Wisconsin e associado ao Tier 1 do Fermilab. O Programa de Integração da Capacidade Computacional da Unesp (GridUNESP) foi inspirado no SPRACE, e tem sido coordenado pelo nosso grupo. O GridUNESP visa atender à demanda de docentes, pesquisadores e grupos de pesquisa cujos projetos científicos requerem grande capacidade de processamento e 2 http://www.opensciencegrid.org/ 3 http://lcg.web.cern.ch/lcg/ 10

armazenamento de dados. Esse programa está implantando centros de processamento locais, interligados pela arquitetura Grid. Essa estrutura de computação distribuída possibilitará também a agregação dos recursos já existentes, racionalizando sua utilização e aumentando a potencialidade do parque computacional da Unesp. Pesquisas em Redes Ópticas Avançadas O SPRACE associou-se ao Projeto KyaTera 4, parte do Programa de Tecnologia da Informação no Desenvolvimento da Internet Avançada (TIDIA), com uma proposta de trabalho onde são buscadas novas soluções para o problema do monitoramento e escalonamento de recursos de rede associado ao gerenciamento de redes ópticas controladas pelos próprios usuários. Essa proposta envolve também pesquisadores da Escola Politécnica da USP, da Faculdade de Engenharia Elétrica e de Computação da Unicamp e da Unesp. Esse trabalho vem sendo desenvolvido em estreita colaboração com o projeto UltraLight 5, financiado pela National Science Foundation (NSF) e liderado pelo California Institute of Technology (Caltech). Como resultado imediato desse trabalho, podemos antever a inclusão do Brasil nesse ambicioso projeto de controle e manipulação da infra-estrutura óptica, de escala mundial, garantindo assim a transferência dessas novas tecnologias. O SPRACE vem participando dos Bandwidth Challenges da conferência SuperComputing que busca atingir recordes de velocidade de transmissão de dados para um único sistema. Nosso grupo, em 2004, foi capaz de transferir por uma hora, de forma sustentada, dados a uma velocidade de 2,93 Gbps, recorde de transmissão entre os hemisférios norte e sul. Em 2005, pelo segundo ano consecutivo, o grupo internacional de Física de Altas Energias venceu esse desafio com uma transferência sustentada, envolvendo várias instituições ao redor do mundo, de 101 Gbps. Breve Histórico e Produção Científica do Grupo O nosso grupo de Física Experimental de Altas Energias teve seu início em 1999, com a entrada na Colaboração DZero de um pesquisador da Unesp e de um pósdoutorando da Fapesp. A partir de 2005 o grupo também se engajou no experimento CMS do CERN. Em outubro de 2003 foi aprovado pela Fapesp um Projeto Temático para a implementação do São Paulo Regional Analysis Center. Esse projeto permitiu a aquisição do cluster computacional do SPRACE. Em julho de 2004 foi aprovado um projeto Jovens Pesquisadores em Centros Emergentes, que permitiu que mais dois pósdoutores, com grande experiência internacional, se unissem ao grupo. É importante ressaltar que um dos Jovens Pesquisadores foi contratado, em agosto de 2006, como Professor Adjunto pela Universidade Federal do ABC, tendo recentemente assumido o cargo de Pró-Reitor de Pós-Graduação. Em dezembro de 2007, outro membro do grupo foi contratado como Professor Colaborador no IFT/Unesp. Nosso grupo tem gerado significativa produção científica. Desde 2005 foram publicados mais de 80 artigos em revistas internacionais arbitradas, todas classificadas 4 http://www.kyatera.fapesp.br/ 5 http://ultralight.caltech.edu 11

como Qualis A pela Capes e com excelente fator de impacto. Esses artigos deram origem a mais de 1700 citações, conforme o banco de dados SPIRES, do Stanford Linear Accelerator Center (SLAC). A lista completa dos artigos publicados pode ser encontrada no link abaixo 6. Finalmente, é importante ressaltar que nosso grupo de Física Experimental de Altas Energias é um dos poucos grupos brasileiros a participar das grandes colaborações internacionais do LHC do CERN. O fortalecimento deste grupo tem grande importância para a produção científica e inserção internacional das universidades do Estado de São Paulo. Principais Resultados Obtidos Desde novembro de 2003, quando se iniciou o projeto do SPRACE, financiado pelo Temático da FAPESP (Processo 03/04519-9), foram alcançadas importantes realizações, o que nos fez atingir todos os objetivos propostos inicialmente. Dentre elas, vale à pena mencionar: 1. Foi implantada a infra-estrutura física (rede óptica, rede elétrica, ar condicionado, etc.) do datacenter do SPRACE no Centro de Ensino e Pesquisa Aplicada (CEPA) do Instituto de Física da USP; 2. A primeira etapa do cluster do SPRACE foi adquirida, instalada, configurada, testada e entrou em operação no dia 23 de março de 2004 com a realização da primeira simulação de Monte Carlo para o DZero. O tempo recorde de implantação do nosso sistema foi mencionado em sessão plenária da conferência Computing in High Energy Physics de 2004, em Interlaken, Suíça por Amber Boehnlein; 3. O cluster do SPRACE, conforme o projeto inicialmente proposto, foi ampliado em duas etapas subseqüentes atingindo um total de 86 nós com um total de 240 núcleos de processamento; 4. O SPRACE teve uma participação destacada nos reprocessamentos de dados, com clusters dos EUA, Canadá e Europa, e na produção de dados de Monte Carlo da colaboração DZero; 5. O SPRACE tornou-se em 2005 um site do Open Science Grid e passou a atuar como uma Tier 2 dentro da estrutura hierárquica de processamento do LHC; 6. Participamos do Computing, Software, & Analysis Challenge 2006 da Colaboração CMS do CERN em preparação para o processamento de dados do LHC; 7. Foi aprovado projeto Jovem Pesquisador em Centro Emergente pela FAPESP que permitiu o financiamento de três pesquisadores atuando junto ao projeto; 8. Um dos membros do grupo (Eduardo Gregores) foi enviado pela colaboração DZero para implantar o cluster de processamento do grupo da University of Science and Technology da China em Hefei, capital da província de Hanui; 9. O SPRACE promoveu o treinamento e participação em eventos realizados no Brasil e no exterior, de diversos de seus membros, sempre com financiamento externo ao projeto: 6 http://tinyurl.com/37wqhs 12

Pan-American Advanced Studies Institute (PASI), "Grid Computing and Advanced Networking Technologies for e-science, Mendoza, Argentina, de 15 a 22 de maio de 2005 financiamento National Science Foundation (NSF); UltraLight Summer Workshop Tutorial, Miami, Flórida, de 8 a 10 de junho de 2005 financiamento CHEPREO Project; Grid Summer Workshop 2005, South Padre Island, Texas, de 11 a 15 de julho de 2005 financiamento da University Texas at Brownsville e NSF; CERN School of Computing 2006, Helsinki, Finland, de 21 de agosto a 01 de setembro de 2006 financiamento da European Union (Marie Curie program); LISHEP Advanced School on Collider Physics, Rio de Janeiro, 26 a 31 de março de 2006 financiamento do comitê organizador; The Hadron Collider Physics Summer School Fermilab, 9 a 18 agosto de 2006 financiamento CNPq e comitê organizador; 2nd Southeastern CMS Physics Analysis Workshop, Miami, EUA, de 7 a 9 fevereiro de 2007 finaciamento projeto CHEPREO; BELIEF-EELA e-infrastructures Conference, Rio de Janeiro, 25 a 28 junho de 2007 financiamento EELA Project; 2nd EELA Workshop e 3rd EELA Tutorial for Users and Administrators, Rio de Janeiro, 24 a 30 de junho de 2006 financiamento EELA Project; 1st EELA Grid School, Ilha de Itacuruçá, Rio de Janeiro, de 4 a 15 de dezembro de 2006 financiamento: CTI / USP; 7th IEEE International Symposium on Cluster Computing and the Grid (CCGrid'07), Barra da Tijuca, Rio de Janeiro, de 14 a 17 de maio de 2007 financiamento Sociedade Brasileira de Computação (SBC); Workshop de Pesquisa & Desenvolvimento do Projeto GIGA / RNP, LNCC, Petrópolis, Rio de Janeiro, de 3 a 6 de setembro de 2007 financiamento Projeto GIGA; 19th Symposium on Computer Architecture and High Performance Computing (SBAC-PAD'07), Gramado, Rio Grande do Sul, de 24 a 27 de outubro de 2007 financiamento do próprio participante; Short-Term Training (STT), CERN, Genebra, Suíça, várias visitas financiamento High Energy Physics Latinamerican-European Network (HELEN); Florida International Grid School 2008, Miami, de 23 a 25 de janeiro de 2008 financiamento do projeto CHEPREO. 10. O SPRACE recebeu as seguintes doações: Seis servidores de processamento Infoserver 1252 através de convênio de cooperação científica e tecnológica que foi assinado com a Itautec Philco S.A valor estimado R$ 82.300,00; Um switch Cisco Catalyst 3750G-24TS-24 com 24 portas 10/100/1000 e 4 small form-factor pluggable (SFP) uplinks do Prof. Harvey Newman do Caltech valor estimado US$ 14.200,00; Um GBic de curto alcance do Prof. Harvey Newman do Caltech valor estimado de US$ 1.300,00; Um GBic de longo alcance do Prof. Harvey Newman do Caltech valor estimado de US$ 5.100,00. 13

11. Foram estabelecidas várias colaborações nacionais e internacionais: Giga/RNP; Kyatera/FAPESP; Distributed Organization for Scientific Analysis and Research DOSAR; Open Science Grid OSG; Center for High Energy Physics Research, Education and Outreach CHEPREO; E-Infraestructure shared between Europe and Latin America EELA2; Ultrascale Information System for Data Intensive Research UltraLight. 12. O SPRACE participou de vários desafios de transmissão de dados (Bandwidth Challenges) tendo batido o recorde de velocidade de transmissão entre os Hemisférios Norte e Sul com uma taxa sustentada de 2,93 Gbps em 2004; 13. Foram promovidos vários eventos científicos, entre eles: VI DOSAR Workshop; I Brazilian LHC Computing Workshop; I Workshop do SPRACE; CMS Tutorial. 14. O grupo do SPRACE participa da análise física de dados buscando evidência de dimensões extras nos eventos do DZero e está iniciando a análise das conseqüências do modelo de Randall-Sundrun na escala de 1 TeV, o que será estudado com a ajuda dos dados do LHC; 15. O SPRACE foi o idealizador e coordenador do GridUNESP, onde o conceito de computação de alto desempenho em grid foi empregado para implantar o primeiro Campus Grid da América Latina. Este projeto teve o maior orçamento aprovado (R$ 4,4 milhões) pelo MCT/FINEP/CT-INFRA dentre todos os projetos concedidos pelo PROINFRA de 2005; 16. O projeto Estrutura Elementar da Matéria: Um Cartaz em Cada Escola, implementado pelo SPRACE, elaborou e distribuiu cartazes para todas as escolas do Ensino Médio do país contendo informação sobre os constituintes da matéria e suas interações, além de manter um Fórum de Discussão para estudantes e educadores; 17. Os pesquisadores do SPRACE foram co-autores de mais de 80 artigos científicos publicados em revistas internacionais arbitradas, tendo recebido mais de 1700 citações conforme o SPIRES/SLAC, com fator h igual a 22; 18. Os pesquisadores principais do projeto SPRACE foram convidados pela Editora da UNESP a escrever o livro Da Internet ao Grid: A Globalização do Processamento (ISBN: 9788571397378), volume da série Novas Tecnologias da Coleção Paradidáticos 7 ; 19. Além da webpage do projeto, foi implantada ferramenta colaborativa do tipo Wiki que tem servido como repositório de informação. O site contém inventário completo do cluster, descrição detalhada da infra-estrutura física, instruções e logbook da operação do cluster, agenda de reuniões e relação de tarefas, etc.; 7 http://www.editoraunesp.com.br/titulo_view.asp?idt=757 14

20. O SPRACE foi objeto de matéria em diversos órgãos da imprensa, entre eles: Folha de São Paulo; Revista INFO Exame; Science Grid This Week; Revista Pesquisa da FAPESP; Revista Siga. 15

IV. A Física de Altas Energias em Aceleradores Introdução O Modelo Padrão das interações eletrofraca e forte tem descrito com grande sucesso a física das partículas elementares. Até o presente, as predições teóricas deste modelo estão de acordo com diversos resultados experimentais obtidos em aceleradores de partículas, desde o descobrimento dos bósons vetoriais W e Z, até os testes de precisão do Large Electron Pósitron (LEP), que corroboraram o modelo em um nível de precisão de 1 por mil. Além disso, as descobertas do quark top e do neutrino do tau, ambas no Fermilab, confirmaram a existência de três, e apenas três, gerações fermiônicas. Mais recentemente, o LEP2 e o Run II do Tevatron testaram os acoplamentos tríplices γww e ZWW e nenhum desvio em relação ao Modelo Padrão foi observado. Apesar de bem sucedido, um aspecto fundamental do Modelo Padrão precisa ser ainda devidamente elucidado: o mecanismo da quebra espontânea da simetria eletrofraca, responsável pela geração de massa dos férmions e bósons de gauge do modelo. Em sua versão mínima, esse mecanismo prevê a existência de uma partícula escalar neutra, o bóson de Higgs. Tanto o Run II do Tevatron como o LHC têm como um de seus objetivos prioritários a busca por esta partícula. A descoberta do bóson de Higgs, ou de um mecanismo similar para a quebra de simetria eletrofraca, significará um grande passo para um entendimento mais profundo da natureza. O Modelo Padrão em sua versão mínima não deve ser encarado, no entanto, como a teoria final. Ele tem um número excessivo de parâmetros arbitrários, o que parece indicar nossa ignorância do processo de geração de massas e da estrutura de sabor. Também deixa de lado problemas cruciais da cosmologia, como a geração da assimetria matéria-antimatéria e natureza da matéria e energia escuras, além de não incluir uma descrição da interação gravitacional. É natural então considerá-lo como um modelo efetivo, válido apenas até uma dada escala de energia a partir da qual uma nova física deve, necessariamente, se manifestar. Do ponto de vista teórico, ao considerarmos o Modelo Padrão como uma teoria efetiva, o setor escalar apresenta problemas de instabilidade às correções radiativas: o surgimento de divergências quadráticas nas correções de massa do bóson de Higgs. Desta forma, para que a quebra de simetria ocorra na escala eletrofraca, é preciso um ajuste muito preciso de parâmetros do modelo na escala em que a nova física se faça presente. Para contornar esse problema aparecem as teorias supersimétricas e teorias envolvendo dimensões extras. De qualquer forma esperamos obter indícios de uma nova física já na escala de 1 TeV. Em outras palavras, a investigação desta escala é de grande importância: ou haverá o completo entendimento do Modelo Padrão inclusive do setor de quebra de simetria ou, por outro lado, aparecerão indícios de uma física além do Modelo Padrão capaz de resolver alguns dos problemas que não encontram explicação neste modelo. O Tevatron, agora operando em sua segunda fase, com luminosidade muito mais alta, permite que seus experimentos restrinjam os vínculos sobre o bóson de Higgs e obtenham alguma indicação desta física nova, tal como a supersimetria, dimensões extras, leptoquarks, novos bósons vetoriais massivos, entre outros. 16

O LHC foi especificamente projetado para escrutinar minuciosamente a física na escala de TeV. Seus principais objetivos são 8 : elucidar o mecanismo da quebra da simetria eletrofraca, em particular a busca pelo bóson de Higgs; estudar eventos na escala de 1 TeV em busca de fenômenos não explicados pelo Modelo Padrão; e finalmente fazer medidas de precisão dos parâmetros do Modelo Padrão. A seguir detalhamos os principais desafios que teremos pela frente ao explorar essa escala de energia assim como os aspectos da física a ser estudada, com especial ênfase no CMS. Principais Desafios As principais características do LHC são a alta energia e luminosidade que permitirão uma produção abundante de vários processos do Modelo Padrão e a exploração de um novo território de energia. Essa energia e luminosidade, no entanto, representam um grande desafio para os experimentos. Na Figura 1 vemos a seção de choque para vários processos em função da energia para um acelerador hadrônico. Notamos que para processos de grande momento transversal (pt) a produção de jatos é dominante. A produção de um bóson de Higgs de 150 GeV, por exemplo, é quase 5 ordens de grandeza menor do que a produção de pares de jatos com pt > 100 GeV. Dessa forma, é praticamente impossível a detecção de um bóson de Higgs decaindo em jatos. O fato de um jato poder ser erroneamente identificado como um elétron ou fóton, somado a esta grande taxa de produção, requer que os detectores tenham uma grande capacidade de identificação de partículas e excelente resolução de energia. Por exemplo, é exigida uma capacidade de rejeição de jatos de 1 por mil e uma resolução de massa para objetos decaindo em léptons e fótons da ordem de 1%. Figura 1: Seção de choque para vários processos do Modelo Padrão. 8 CMS Physics Technical Design Report Volume II: Physics Performance, http://doc.cern.ch//archive/electronic/cern/preprints/lhcc/public/lhcc-2006-021.pdf. 17

Podemos notar também que a seção de choque de processos de QCD cresce mais rapidamente com a energia do acelerador do que a de processos eletrofracos. Dessa forma, para vários processos de interesse, a razão sinal-background será menor no LHC em relação ao Tevatron, apesar do número de eventos do sinal ser maior; estratégias para diminuir o background precisam ser cuidadosamente elaboradas. A alta luminosidade do LHC, 100 vezes maior do que a do Tevatron, leva à produção de 20 eventos por interação. Esse efeito de pile-up deve ser tratado com cuidado na especificação do detector, especialmente em termos do tempo de resposta e resistência a radiação. Do ponto de vista da física, esses efeitos afetam principalmente a resolução de massa do calorímetro para partículas leves, a resolução do momento transversal faltante e a efetividade de certas ferramentas como, por exemplo, a capacidade de se vetar jatos. Finalmente, fica evidente que é crucial um sistema de seleção eficiente, capaz de reduzir a taxa de eventos produzidos de 10 9 Hz para uma taxa de eventos armazenados de 100 Hz, preservando uma alta eficiência para os processos de interesse físico. Modelo Padrão Interações fortes Nos detectores do LHC serão estudados vários aspectos da interação forte, da física de íons pesados à física difrativa. No CMS, em particular, será de especial interesse o estudo da física de jatos e da física de quarks b. Os processos envolvendo jatos estarão presentes de maneira avassaladora. Essa presença proporcionará um melhor entendimento da física de jatos em alto pt, essencial para qualquer estudo que se faça no CMS. De um lado os dados devem ser corrigidos para incluir efeitos dos detectores e a energia deve ser calibrada para a reconstrução de jatos, utilizando simulações completas do detector. Por outro lado as previsões teóricas, principalmente no que se refere ao processo de hadronização, devem ser aprimoradas e comparadas com os dados. É necessário o estudo detalhado de algoritmos de jatos, a calibração de energia dos jatos, correções de NLO e o efeito do trigger. Nosso grupo está envolvido em alguns estudos relativos à física de jatos, principalmente no que se refere à produção de bósons de gauge associada a jatos. Outros tipos de processo que precisam ser bem estudados são os chamados underline events, definidos como tudo que acompanha uma dada reação, excluindose o processo duro. No Tevatron, estudos mostram que a densidade de partículas nos underline events corresponde ao dobro da densidade nos eventos de minimum bias, ou seja, aqueles em que não ocorre o espalhamento duro. No LHC é previsto uma fração ainda maior e entender esses eventos é essencial para se estudar os processos duros. A física do quark b será explorada em profundidade no CMS. Uma grande ênfase será dada na capacidade de se identificar jatos provenientes do quark b. Além do estudo da física envolvendo hádrons e mésons com quarks b, a identificação de jatos provenientes destes quarks é importante em vários processos para se diminuir o background. Exemplos importantes são o decaimento do Higgs em b s, o quark top e alguns cenários de supersimetria que predizem uma abundância da produção de quarks da terceira geração. O estudo da estrutura de sabor é de grande importância para a física de altas energias, envolvendo questões como a violação de CP e o entendimento da assimetria matéria e anti-matéria. Aproximadamente 10 12 pares de quarks b devem ser produzidos 18

no CMS. Esta grande produção aliada à qualidade de determinação dos vértices de decaimento dos mésons permitirá estudos precisos da violação CP e a detecção de decaimentos raros dos mésons B. Vale lembrar que estes decaimentos raros, como aqueles que envolvem troca de corrente neutra, podem revelar indícios de uma física além do Modelo Padrão. Quark Top O objetivo da física do top no LHC é conseguir determinar com precisão as propriedades do quark mais pesado do Modelo Padrão, medindo sua taxa de produção e explorando todos os canais de decaimento. Entre as variáveis a serem medidas com grande precisão estão a seção de choque de produção de pares, a massa do top e propriedades de spin. O quark top decai em W + b sendo que o decaimento do W em léptons ou quarks determinará as características do evento. O CMS será capaz de reconstruir a massa do top em vários canais de decaimento: (i) canais de dileptons, em que a perda de energia devido à presença de dois neutrinos no estado final exige uma estratégia bastante sofisticada; (ii) canal semileptônico, considerado o canal preferencial para esses estudos; (iii) canal hadrônico, em que a presença de vários jatos no estado final dificulta a separação do sinal sendo essencial a identificação de jatos provenientes do quark b. Os erros na determinação da massa serão dominados por erros sistemáticos quando a luminosidade acumulada for suficientemente alta. Um método baseado na identificação de J/Ψ, provenientes do decaimento do quark b, pode ajudar a diminuir o erro sistemático em eventos com decaimento semileptônico. Também é missão do CMS estudar as correlações de spin na produção de pares de top, assim como eventos com a produção simples do quark top. Ademais, a grande produção de top s no CMS permitirá o estudo de decaimentos raros em que ocorre mudança de sabor por correntes neutras. Esse tipo de processo é previsto em várias extensões do Modelo Padrão, como na supersimetria. Física Eletrofraca A produção de bósons de gauge com o decaimento em léptons é um processo bem entendido e terá uma grande seção de choque no LHC. Esses processos serão bastante úteis para muitos propósitos, como servir de monitoramento para a luminosidade e como uma ferramenta de calibração dos detectores. A grande produção de bósons de gauge permitirá uma medida mais precisa da massa do W, uma quantidade fundamental no Modelo Padrão, que poderá ser medida com precisão da ordem de 10 MeV para uma luminosidade de 10 fb -1. No LHC será possível a produção de pares de bóson de gauge em um maior número do que no Tevatron, possibilitando um estudo dos acoplamentos tríplices e quárticos entre eles. Estes acoplamentos são totalmente determinados pela estrutura de gauge do Modelo Padrão; qualquer desvio em relação aos valores previstos será um indício de uma nova física. Bóson de Higgs A capacidade de detectar o bóson de Higgs do Modelo Padrão foi colocada como um requisito essencial na análise de desempenho dos detectores propostos para o LHC, no início da década de 90. Apesar da massa do bóson de Higgs não ser estabelecida pelo Modelo Padrão, uma vez que ela seja determinada experimentalmente todas as suas demais propriedades são preditas pelo modelo. Por 19

exemplo, as larguras parciais de decaimento e a largura total do Higgs são univocamente determinadas em função de sua massa (vide Figura 2). Figura 2: Razões de ramificação e largura total do bóson de Higgs. Alguns limites superiores para sua massa podem ser obtidos através de considerações teóricas. Se for exigido que o Modelo Padrão seja fracamente interagente até a escala de Grande Unificação (da ordem de 10 16 GeV), é possível estabelecer um limite superior para sua massa de aproximadamente 190 GeV. Para uma nova física se manifestando já na escala de TeV é possível estimar um limite para a massa do Higgs de aproximadamente 700 GeV. Experimentalmente, hoje dispomos apenas do limite inferior imposto pelo LEP que é de 114,4 GeV. A partir dos dados de precisão do setor eletrofraco, onde o valor da massa do Higgs entra no cálculo das correções radiativas para vários observáveis, é possível estimar que o Higgs deva ser mais leve do que 160 GeV com 95% de confiança. Na Figura 3 é mostrado χ 2 em função da massa do Higgs, sendo a faixa amarela excluída experimentalmente pela procura direta no LEP. Figura 3: χ 2 do fit global em função da massa do Higgs, considerando o Modelo Padrão. 20

Para massas um pouco superiores ao limite imposto pelo LEP e inferiores a 135 GeV, o canal predominante de decaimento é em um par bb. No entanto, este canal é virtualmente impossível de ser separado do background da QCD. Por ser um canal relativamente livre de background o canal γγ, mesmo sendo muito pequeno, é o mais promissor para estabelecer a existência de um Higgs com massa entre 115 e 130 GeV. Já um Higgs mais pesado, com valores da massa entre 130 e 800 GeV, sua descoberta * deverá depender do decaimento em 4 léptons ( H ZZ 4l ). O principal mecanismo de produção do Higgs no LHC é através da fusão de glúons ( gg H ) que é mediada por loops dos quarks pesados. Para valores grandes da massa do Higgs o mecanismo de fusão de bósons de gauge passa a ser relevante ( qq qq + WW / ZZ qqh ), podendo ser uma boa alternativa graças à possibilidade de se identificar dois jatos na região frontal, diminuindo assim o background. Para valores pequenos da massa do Higgs (MH < 2MZ), a produção associada ( qq WH / ZH ) com o decaimento leptônico dos bósons de gauge oferece uma alternativa interessante graças à presença de léptons extras no estado final. Caso o bóson de Higgs não venha a ser descoberto no LHC, isto será uma forte indicação de que a quebra da simetria eletrofraca ocorre através de processos fortemente acoplados que deverão se manifestar na produção em excesso de pares de bósons vetoriais (WW e ZZ). Física Além do Modelo Padrão Supersimetria A supersimetria na escala eletrofraca é fortemente motivada pela necessidade de se resolver o problema de ajuste fino dos parâmetros, já que nesses modelos as correções quadráticas para a massa dos escalares se cancelam. Modelos supersimétricos, apesar de terem sido propostos há mais de 25 anos, não apresentam até o momento nenhuma evidência experimental. Uma característica de todos estes modelos é a duplicação do espectro de partículas existentes, ao se associar férmions a bósons e vice-versa. Portanto, mesmo o Modelo Padrão Supersimétrico Mínimo (MSSM), extensão mínima do conteúdo de partículas do Modelo Padrão, prevê a existência de várias novas partículas (gluinos, squarks, charginos, neutralinos, sléptons, etc.) que deverão ser buscadas pelos experimentos do LHC. Uma característica importante de modelos supersimétricos é a possível conservação da paridade R. Para modelos que respeitam essa simetria, os decaimentos de partículas supersimétricas envolvem cascatas que sempre contêm a partícula supersimétrica mais leve (LSP). Espera-se que a LSP interaja muito fracamente, o que deve levar a uma grande quantidade de E T no estado final. O resto da cascata deve conter uma grande quantidade de jatos e léptons, particularmente jatos oriundos de quarks b ou de léptons τ. O MSSM se caracteriza por conter a parametrização mais geral possível dos termos de quebra de supersimetria, acarretando em um enorme número de parâmetros livres. Hipóteses sobre como a quebra de supersimetria é transmitida vinculam esses parâmetros, diminuindo o número de parâmetros livres. Vários modelos mais restritivos, como o msugra (minimal Supergravity Grand Unification) e GMSB (Gauge-Mediated Supersymmetry Breaking) têm sido estudados. Em msugra assume-se a unificação dos parâmetros soft na escala de grande unificação, diminuindo o número de parâmetros livres para 5. Nesses modelos, a LSP é naturalmente 21

uma partícula neutra com massa na escala eletrofraca, sendo um candidato natural para a matéria escura fria, se considerarmos conservação de paridade R. Já o GMSB assume que as interações de gauge do Modelo Padrão sejam responsáveis pela quebra da supersimetria e permite explicar de forma natural porque os efeitos da corrente neutra com troca de sabor (FCNC) são pequenos. O MSSM prevê a existência de 3 bósons de Higgs neutros (h, H, A) e um par carregado (H ± ), número mínimo para gerar massa para todos os quarks. Os vínculos neste caso são menos restritivos que no Modelo Padrão, sendo necessários dois parâmetros para determinar o espectro de massa. Os parâmetros usualmente escolhidos são a massa do bóson de Higgs pseudo-escalar (MA) e a razão entre os valores esperados do vácuo dos campos de Higgs que se acoplam aos quarks tipo up e down (tan β). Figura 4: Contorno de descoberta de 5σ para vários canais de busca dos bósons de Higgs supersimétricos. Nenhuma destas partículas foi observada até o presente, mas boa porção do espaço dos parâmetros já foi excluída experimentalmente. A busca dos bósons de Higgs supersimétricos poderá ampliar a região de exclusão no espaço dos parâmetros MA tan β como pode ser visto na Figura 4. Quando se leva em conta todos os possíveis canais de decaimento, com uma luminosidade integrada de 100 fb -1, pode se excluir todo o plano M tan β com 95% de nível de confiança. A Dimensões Extras Teorias com dimensões extras além das três espaciais e do tempo existem na literatura desde a tentativa pioneira de Kaluza e Klein de unificar o eletromagnetismo com a gravidade no começo do século XX. Atualmente, teorias de superstrings requerem a existência dessas dimensões. Acreditava-se que essas dimensões estariam compactadas em uma escala muito pequena, sendo irrelevantes para a fenomenologia na escala de energia que os aceleradores são capazes de explorar. 22

Recentemente surgiram alguns modelos de dimensões extras com o objetivo de tratar o problema da hierarquia de escalas, onde é possível testar a existência dessas dimensões extras em aceleradores. Vários cenários foram propostos em que seus efeitos podem se manifestar na escala de 1 TeV. Alguns deles são: Grandes Dimensões Extras: No modelo de Grandes Dimensões Extras (ou ADD, dos autores Arkani-Haned, Dimopoulos e Dvali), as dimensões extras podem ser grandes (escala de até milímetro), mas só a gravidade pode se propagar nas dimensões extras (ou em linguagem técnica, no bulk). Estes modelos com grandes dimensões extras supõem a existência de uma torre de estados de grávitons massivos. Estas partículas podem ser produzidas em espalhamento de quarks e glúons, dando origem a um momento transversal faltante, já que elas interagem apenas gravitacionalmente. Portanto, estados finais do tipo jatos + ET e fóton + E T são as assinaturas a serem investigadas para estas partículas. Os experimentos do LHC, com uma luminosidade integrada de 100 fb -1, deverão ser capazes de detectar sinais da escala M D fundamental da teoria da ordem de 8 TeV. Modelo de Randall-Sundrun: Neste outro cenário a escala de compactação é pequena e só a gravidade se propaga no bulk, onde há uma supressão exponencial da escala de Planck, aliviando o problema da hierarquia de escalas e levando a conseqüências fenomenológicas na escala de 1 TeV. No cenário mais estudado, de tipo I, também chamado RSI, as partículas do Modelo Padrão, assim como nos modelos ADD, não podem se propagar nas dimensões extras. O efeito de dimensões extras no LHC se manifesta pela produção dos modos KK (torres de Kaluza Klein) do gráviton cujos acoplamentos (ao contrário de ADD) são suprimidos apenas pela escala de TeV. No caso de RSI esses modos são pesados e podem ser observados como ressonâncias em seus decaimentos em dois férmions ou dois fótons. O alcance do CMS é estimado em até 4 TeV para uma luminosidade integrada de 60 fb -1. Dimensões Extras Universais: Aqui, todas as partículas do Modelo Padrão podem se propagar nas dimensões extras, criando estados excitados (torres de Kaluza Klein) para todas as partículas. O modelo mais simples prevê estados pesados para todas as partículas, com um espectro de massa degenerado, sendo essa degenerescência quebrada por correções radiativas. A conservação de momento nas dimensões extras leva a conservação de uma quantidade multiplicativa, chamada paridade KK. A conservação dessa paridade faz com que todas as partículas excitadas decaiam na partícula excitada mais leve que é estável. Como ocorre na supersimetria, tem-se aqui um candidato a matéria escura. A fenomenologia é bastante similar à SUSY: existem parceiros excitados pesados para cada partícula do Modelo Padrão e o decaimento final leva a uma partícula neutra estável que escapa a detecção. No entanto a grande degenerescência do espectro de massa leva a decaimentos de partículas não muito energéticas, representando um desafio para sua detecção. 23