Análise de Dalitz Plot do decaimento D! K! K! K! e Projeto de emulador de padrão de dados no VErtex LOcator no Experimento LHCb Aluno: Rafael Tourinho Aoude Orientador: Carla Göbel Burlamaqui Departamento de Física - PUC-Rio. Introdução Se pudéssemos construir o universo, começaríamos com pequenos tijolinhos e um a um montaríamos sistemas complexos e ricos. Mas se à medida que fossemos construindo percebêssemos que esses tijolinhos não são os menores possíveis, que há coisas menores ainda? Qual seria a menor parte possível? Como essas partes pequenas estariam ligadas? E se encontrássemos uma nova parte que aniquilasse a parte que já conhecemos? A matéria ordinária do Universo, como hoje sabemos, é composta em sua quase totalidade de tijolinhos fundamentais que são os quarks e léptons, ligados através de interações também mediadas por outras partículas, os bósons fundamentais. O entedimento dos constituintes da matéria (veja figura abaixo) e suas interações é um grande êxito do chamado Modelo Padrão Há também, para cada partícula, sua anti-partícula e supõe-se que logo após o Big Bang haveria iguais quantidades das duas o que não é a realidade do Universo atual. Em 967, o físico Sakharov propôs 3 condições para a Bariogênesis (dominância da matéria frente à anti-matéria), dentre elas está há violação de carga-paridade (CP), onde um decaimento de uma partícula num estado final se dá a uma taxa diferente do decaimento da anti-partícula correspondente em seu anti estado final. O LHC (Large Hadron Collider), no CERN (Suíça) é um colisor de prótons a altíssimas energias cujo objetivo é estudar a matéria em seu estado mais fundamental e suas interações. O LHC está composto de um sistema complexo de vários aceleradores intermediários que finalmente injetam as partículas no maior túnel, de 27 km de perímetro, como pode ser visto na figura acima. Nesse túnel há 4 grandes experimentos onde se localizam os pontos de colisão entre os feixes. São eles: CMS (Compact Muon Sollenoid), ATLAS (A Toroidal LHC AparatuS), LHCb (LHC beauty experiment) e ALICE (A Large Ion Collider Experiment).
O experimento LHCb se dedica ao estudo de processos envolvendo os chamados hádrons de sabores pesados, aqueles que contém os quarks charm (c) ou beauty (b), com o obejtivo de estudar, entre outros tópicos, o fenômeno de violação de CP e busca de processos raros ou proibidos no Modelo Padrão. Neste relatório, apresento os projetos desenvolvidos no último ano. Por um lado, o estudo do canal de decaimento do méson charmoso D + K - K + K + com o objetivo da análise, ainda inédita, das estruturas ressonantes deste processo. Por outro lado, esse projeto também teve uma parte de hardware cujo objetivo era projetar um emulador de padrão de dados para o detetor de vértices VErtor LOcator (VELO). 2. Objetivo Mesmo tendo duas partes nesse projeto, Análise de Dalitz Plot e Emulador de padrão de dados, foi dedicado mais tempo à análise, logo, descreverei nas seções a seguir a parte da análise e, no fim, um seção para o emulador. Dalitz Plot é uma representação em 2 dimensões do espaço de fase de um decaimento em três corpos, onde é possível ver estruturas ressonantes que ocorreram entre o estado inicial e o estado final do decaimento. O objetivo desse projeto foi estabelecer um modelo fenomenológico para os dados obtidos em 22 no LHCb e fazer um ajuste pelo método de Máxima Verossimilhança (Maximum LogLikelihood) para estudar as estruturas ressonantes presentes entre o estado inicial (D! ) e o estado final (K! K! K! ) do decaimento em questão. A maior motivação dessa análise é fazer a espectroscopia hadrônica para ver as contribuições das ressonâncias do decaimento em questão, medida nunca feita antes. O LHCb visa um upgrade de seus detectores para o ano de 28, para isso, o VELO será trocado de um detector de strip para um baseado em pixels, e com isso a forma como os dados são enviados do detector mudará. É importante a criação de um emulador de padrão de dados para simular como esse detector enviará os dados. Os detectores têm uma alta frequência de envio de dados, logo, esse emulador não pode ser criado num sistema comum e sim numa placa de alta velocidade como uma FPGA. Com isso, esse projeto teve como objetivo projetar um emulador de padrão de dados do VELO. 3. Metodologia Porque usar um Dalitz Plot? Se temos um decaimento de um méson (D! ) em três mésons (K! K! K! ), a taxa de decaimento é descrita por []: dγ = 2π! 32 s! M! ds!" ds!" onde s é a energia total no centro de massa, s!" e s!" são as variáveis de Dalitz massas invariantes quadradas das combinações de duas partículas do estado final, K! ()K! (2)K! (3). M é a amplitude quântica do decaimento. Toda a informação da dinâmica do decaimento está contida em M. O Dalitz plot é o gráfico s 2 s 3 que, como vemos da expressão acima, terá sua distribuição de eventos pautada por M!. A dinâmica do decaimento com isto duas estruturas ressonantes é portanto estudada através de uma análise de amplitudes no Dalitz plot.
A construção do Dalitz Plot de um decaimento se dá através dos momenta finais das partículas. Usando todas as informações das três partículas (energia e o vetor momento) podemos construir as variáveis de Dalitz da seguinte forma. s!" = p!! + p!!!, s!" = p!! + p!!! e s!" = p!! + p!!! Na equação acima, os números são referentes às três partículas do nosso decaimento e μ referente à componentes do quadri-momento. O decaimento não ressonante (sem dinâmica) apresenta um gráfico como mostrado abaixo. Ou seja, ele é constante dentro dos limites cinemáticos impostos pelas conservações de quadrimomento e fora desses limites é zero pois é fisicamente impossível ter eventos fora da região de limite cinemático. Como temos duas partículas iguais nesse decaimento em particular é muito comum usar o s!"# e s!!"! que é formado pela partícula de carga oposta (K! ) e o K! com menor e maior momento, respectivamente. Como para nosso decaimento duas partículas iguais no estado final, é de praxe fazer a análise usando s!"# e s!!"!. Numa análise de Dalitz Plot há alguns pontos essenciais que devem ser bem entendidos: Eficiência: Os detectores do LHCb têm diferentes eficiências para diferentes momentos das partículas finais, ou seja, as vezes para momentos com momento transverso muito alto o detector não é tão eficiente e isso afeta como os eventos são reconstruídos e assim podem aparecer estruturas no Dalitz Plot que são devido à eficiência do detector e não ao decaimento em si. 25 2 5 5.8.6.4.2 s2:s3.2.4.6.8 hist Entries Mean x.49 Mean y.48 RMS x.2292 RMS y.2299 3 25 2 5 5.9.8.7.6.5.4.3.2..9 s_high:s_low..2.3.4.5 hist Entries Mean x.24 Mean y.577 RMS x.48 RMS y.634.6.7 Background: Um ruído nesse análise tem a sua maior contribuição de eventos mal reconstruídos. As vezes esse ruído apresenta estrutura no Dalitz Plot. Nosso objetivo através de Redes Neurais é diminuir o máximo possível desse ruído, sem comprometer o sinal e o que não conseguirmos tirar, modelar e adicionar ao ajuste de dados. Fitter: É o código que faz o ajuste de dados, ele deve ser bem entendido além de bem testado para não obtermos resultados falsos. Modelo de Sinal: Nessa análise, usamos o modelo isobárico onde a amplitude total do decaimento é descrita por a soma de vários termos relativos a cada ressonância r e um termo não-ressonante : M!"# s!"#, s!!"! = a!" e!!!" + a! e!!! A! s!"#, s!!"!!
Com isso, a função densidade de probabilidade do sinal é : Pdf!"# s!"#, s!!"! = M!"#! M!"#! Onde percebemos que os as fases δ!" e δ! serão de extrema importância pois farão com que exista a interferência entre as amplitudes de cada ressonância, que é essencial para modelar nossa amplitude total. Já a amplitude de cada ressonância pode ser encontrada na referência [3]. 4. Resultados Background Primeiramente vamos analisar o background, nosso objetivo aqui é diminui-lo ao máximo, para isso realizamos na amostra de dados alguns cortes preliminares que selecionam alguns bons candidatos e depois aplicamos essa amostra à rede neural onde retiraremos grande parte do background. Uma Rede Neural tem duas etapas: Treinamento e Aplicação. Na etapa de treinamento são usadas duas amostras, uma de parecida com sinal e uma parecida com background com as variáveis que se deseja colocar na rede neural. A amostra parecida com sinal usada foi uma amostra de Monte Carlo, ou seja, pura simulação de como seriam os dados, a simulação é bem completa onde se inclui efeitos do experimento como um todo. Já para nossa amostra de background podemos descrevê-la olhando para o espectro de massa KKK do nosso decaimento. 5 4 D_MM htemp Entries 8283 Mean 87 RMS 5.32 3 D_MM htemp Entries 79 Mean 877 RMS 35.78 3 25 2 2 5 82 84 86 88 9 92 94 D_MM 82 84 86 88 9 92 94 D_MM O histograma da esquerda é para Monte Carlo e percebemos que ela é uma gaussiana pura. Já a amostra da direita é uma amostra de dados reais e percebemos que há um background em todo seu espectro. Para dar uma amostra parecida com background para a rede neural pegamos os dados que estão contidos apenas nas regiões de massa de 82 à 84 MeV e de 9 à 92 MeV. Depois de escolher as amostras é feito um estudo de quais variáveis vão ser usadas para formar a rede neural, as escolhidas são as que podem discriminar mais entre sinal e background e que não insiram deformidades no Dalitz Plot Formada a rede neural, pode-se aplicar a amostra de dados coletados do LHCb à rede, com isso é gerada uma nova amostra com uma nova variável (valbdt) que ao fazer cortes nela vamos obtendo uma amostra cada vez mais limpa, ou seja, sem background. Mas deve haver um comprometimento nesse ponto, pois essa variável obedece à um probabilidade, logo
à medida que fazemos cortes nela podemos estar tirando sinal da nossa amostra também. Por isso, é necessário fazer um estudo da eficiência e a pureza da amostra após cortes dessa variável. Abaixo mostramos como fica o espectro de massa após cortes mais apertados. 2 ) Candidates/(MeV/c 24 22 2 8 6 4 2 8 6 4 2 Histogram After NN with valbdt>-.2 Prob.239 Nsig.82e+5 8.98e+2 p.834.282 Mean 87. Sigma D 3.793.53 Sigma D2 7.854.65 Nbkg 5.692e+5.95e+3 slope.33.46 82 83 84 85 86 87 88 89 9 9 92 2 M KKK (MeV/c) 2 ) Candidates/(MeV/c 24 22 2 8 6 4 2 8 6 4 2 Histogram After NN with valbdt>-.5 Prob.473 Nsig.698e+5 7.447e+2 p.884.274 Mean 87. Sigma D 3.782.48 Sigma D2 7.592.58 Nbkg 3.526e+5 8.554e+2 slope.359.59 82 83 84 85 86 87 88 89 9 9 92 2 M KKK (MeV/c) 2 ) Candidates/(MeV/c 24 22 2 8 6 4 2 8 6 4 2 Histogram After NN with valbdt>.5 Prob.9564 Nsig.43e+5 5.369e+2 p.7695.37 Mean 87. Sigma D 3.689.55 Sigma D2 6.556.384 Nbkg.888e+5 5.76e+2 slope.3779.8 82 83 84 85 86 87 88 89 9 9 92 M KKK (MeV/c 2 ) 2 ) Candidates/(MeV/c 24 22 2 8 6 4 2 8 6 4 2 Histogram After NN with valbdt>.5 Prob.576 Nsig 9.73e+4 3.884e+2 p.842.34 Mean 87. Sigma D 3.78.5 Sigma D2 7.5.556 Nbkg 6.77e+4 3.54e+2 slope.449.32 82 83 84 85 86 87 88 89 9 9 92 M KKK (MeV/c 2 ) Percebemos por esses histogramas que apertando o corte de valbdt perdemos cada vez mais background mas também perdemos sinal. Para decidir qual é um bom corte devemos analisar a pureza e a eficiência de cada corte, definidas como: Pureza =!!"!"!#$%&!"!"#$%!!"!"!#$%&!"!#$, Eficiência =!!"!"!#$%&!"!"#$%!"ó!!!"#$%!!"!"!#$%&!"!"#$%!"#!"#$% Efficiency/Purity.9.8.7 NevSig 8 6 4 3 Number of Signal events x BDT.6 2.5.4 8.3 Purity 6.2. Efficiency 4 2 -.4 -.2.2.4 BDT -.4 -.2.2.4 BDT
Daqui, percebe-se que um corte bom para essa amostra é o de valbdt >.5 pois obtenho 9% de pureza na amostra e 5% de eficiência. Levando em consideração o fato de termos muitos eventos, não há grande problema em perder metade dos eventos de sinal em prol de deixar a amostra bem limpa. De posse disso, os % eventos de background restantes devem ser modelados já que para retirá-los perderíamos grande parte da amostra. Eficiência Descreve como os detectores do LHCb se comportam ao medir diferentes momentos, se o detector fosse perfeito a eficiência seria constante e não teríamos problemas ao longo do Dalitz Plot. Além disso, a rede neural pode inserir alguma não uniformidade e o modelo da eficiência deve agregar todos esses efeitos. Como não sabemos nada da eficiência, usamos algo bem geral como um polinômio em 2 dimensões (simétrico pois temos duas partículas iguais no estado final). Se definir x = s!!"! e y = s!"#, a função de eficiência é: f! = a! f! = a! (x + y) f! = a! x! + y! + a! x y f! = a! x! + y! + a! (x! y + xy! ) f! = a! x! + y! + a! x! y! + a! ( x! y + xy! ) f! = a! x! + y! + a!" x! y + xy! + a!! x! y! + x! y! f! = a!" x! + y! + a!" x! y + xy! + a!" x! y! + x! y! + a!" (x! y! ) ε s!"#, s!!"! = f! + f! + f! + f! + f! + f! + f! (f! + f! + f! + f! + f! + f! + f! )!" onde,!" significa a integral dentro dos limites cinemáticos do Dalitz Plot. De posse do modelo, pega-se a amostra de Monte Carlo que descreve o comportamento dos detectores do LHCb e aplica-se à rede. Do output da rede, aplicamos o mesmo corte que devemos aplicar aos dados para simular também alguma estrutura que a rede possa ter inserido e tentamos ajustar essa amostra final com o modelo acima através da Máxima Verossimilhança. Depois do ajuste, obtemos os parâmetros que devem descrever a nossa eficiência. Para efeito de comparação, usamos o modelo de novo com os novos parâmetros ajustados para gerar uma amostra e comparar a gerada (direita) com a que foi ajustada (esquerda).
2.9.8.7.6.5 Histogram to Fit hh Entries 82839 Mean x.249 Mean y.574 RMS x.489 RMS y.543 8 6 4 2 Fast MC generated by the fitted function 2 hh_fastmc Entries e+7.9 Mean x.25 Mean y.574.8 RMS x.49 RMS y.54.7.6.5 3 8 6.4 8.4 4.3 6.3.2 4.2 2. 2..8.9..2.3.4.5.6.7.8.8.9..2.3.4.5.6.7.8 Histogram to Fit Fast MC generated by the fitted function 2 8 6 4 2 8 6 4 2 2.9.8.7.6.5.4.3.2. hh Entries 82839 Mean x.249 Mean y.574 RMS x.489 RMS y.543.8.9..2.3.4.5.6.7.8 8 6 4 2 3 2.9.8.7.6.5.4.3.2. hh_fastmc Entries e+7 Mean x.25 Mean y.574 RMS x.49 RMS y.54.8.9..2.3.4.5.6.7.8 Para comparar os dois histogramas usamos a formula: χ! =!!!""!"#$ [h i h!"# (i) k]! h i + h!"# (i) k! Onde, obtemos: N Total Bins Ocupados = 36 N de eventos ajustados h(i) = 82839 N de eventos gerados h ger (i) = E+7 k = 54.6929, divisão entre os dois. Com isso, χ! = 29.497 χ! /ndof =.5442 KOLMOGOROV =.8953 O χ! /ndof de.54 nos mostra que tivemos um bom ajuste e uma boa compatibilidade entre a amostra ajustada e a amostra gerada com os parâmetros ajustados. Junto com isso, temos um Kolmogov de.89 que nos diz a probabilidade de as duas amostras serem compatíveis e 8.9% é um número bastante razoável.
Modelo Total Para finalmente fazer o ajuste de todos os dados, devemos incluir em nosso modelo todas as contribuições : Modelo do Sinal, Modelo do Background e Eficiência. Com isso, o modelo total seria. Pdf(s!"#, s!!"! ) = ε s!"#, s!!"! { Pdf!"# (s!"#, s!!"! ) + Pdf!"# (s!"#, s!!"! )} ε s!"#, s!!"! { Pdf!"# (s!"#, s!!"! ) + Pdf!"# s!"#, s!!!! } Lembrando que nosso modelo deve ser normalizado pois faremos o ajuste de dados usando o método de máxima verossimilhança (Maximum Likelihood), que assume que o modelo à ser ajustado é normalizado, maximizando a função ln L, onde:!!"!"!#$%& L = Pdf(s (!)!!"#, s!!"!, θ! )!!!!!"!"!#$%& ln L = ln Pdf(s (!)!!"#, s!!"!, θ! )!!! Os parâmetros a serem ajustados são representados aqui por θ! e a minimização é feita pelo pacote Minuit contido no programa ROOT [2], utilizado em toda essa análise. 5. Emulador de Padrão de dados O detector de vértices do LHCb, o VELO ( VErtex LOcator), passará por um upgrade onde seus sensores de strip passarão a ser baseados em pixels, os Timepix3. Os chips desses sensores se comunicam com os computadores de armazenamento numa alta frequência de transmissão de dados. Desse forma, a melhor maneira de desenvolver algoritmos de configuração, leitura e armazenamento é através de FPGA ( Field Programmable Gate Array), onde a programação é em hardware. O objetivo do projeto foi a emulação do padrão de dados do Velopix (o novo detector de vértices do VELO) comunicando com placa FPGA pelo computador host através da porta PCIe. Para isso, foi necessário o aprendizado do software ISE [3] que faz a programação da FPGA e o aprendizado da linguagem de programação de hardware VHDL. A placa usada foi da fabricante Xilinx [4], em específico a placa AC7 ( Evaluation Board) contendo a FPGA da família Artix-7. O projeto consistiu primeiramente em aprender tudo sobre a placa, seu funcionamento e suas características. De posse disso, a FPGA foi programada de forma à ter em sua memória um padrão de dados já obtido dos detectores e enviar esse padrão para o computador host à um frequência muito alta (alto clock) seguindo um protocolo específico pela porta PCIe, porta de alta velocidade de transmissão, e no host comparar os dados já obtidos com os enviados pela placa. Os próximos passos são, através de um protocolo SERDES ( Serializer /Desirializer), fazer um loopback (os dados enviados voltam pra placa) na própria FGPA para testar a compatibilidade dos dados enviados com os dados recebidos.
6. Conclusão O estudo do decaimento D + K - K + K + se encontra nesse exato momento no processo de ajuste de dados com o modelo total e tentativas de modelar o background, logo não serão apresentados nesse relatório resultados do ajuste de dados com o modelo total. Mas os resultados até esse momento foram promissores, conseguimos eliminar com grande êxito 9% do background, modelar a eficiência de forma controlada e precisa, a análise continuará já que temos grande parte do trabalho concluído e pretende-se fazer essa medida nunca feita antes. Com relação ao projeto do emulador de padrões de dados da FPGA para o upgrade do VELO, conseguimos terminar uma primeira etapa em que foi adequadamente colocando em funcionamento este emulador. 7. Bibliografia [] J. Beringer el al. (Particle Data Group), PR D86, (22) (url:http://pdg.lbl.gov) [2] http://root.cern.ch/ [3] ISE Design Suite, http://www.xilinx.com/products/design-tools/ise-design-suite/ [4] http://www.xilinx.com/