NAGIOS: RODERIC FUNCIONANDO

Study of Jet Substructure in the ATLAS Experiment using Distributed Analysis within Spanish Tier-2 Infrastuctures

Repositori DSpace/Manakin

IMPORTANT: Aquest repositori està en una versió antiga des del 3/12/2023. La nova instal.lació está en https://roderic.uv.es/

Study of Jet Substructure in the ATLAS Experiment using Distributed Analysis within Spanish Tier-2 Infrastuctures

Mostra el registre parcial de l'element

dc.contributor.advisor Salt Cairols, José
dc.contributor.advisor González de la Hoz, Santiago
dc.contributor.author Oliver García, Elena
dc.contributor.other Departament de Física Atòmica, Molecular i Nuclear es_ES
dc.date.accessioned 2013-12-02T08:25:35Z
dc.date.available 2013-12-03T07:10:03Z
dc.date.issued 2013
dc.date.submitted 16-12-2013 es_ES
dc.identifier.uri http://hdl.handle.net/10550/31675
dc.description.abstract Study of Jet Substructure in the ATLAS experiment using Distributed Analysis within Spanish Tier-2 Infrastructures Summary in English 1 Motivation The first study of jet substructure on LHC data was performed by the ATLAS experiment. The jet algorithm chosen was AntiKt with R-parameter=1.0. This study has been important to check the working of the substructure variables which allow to distinguish boosted objects from background. These objects are produced abundantly at LHC and are expected to gain relevance in future operation at large energy. In this study, the computing part has had a great importance because the work done into the ATLAS Spanish Tier-2 federation on understanding its performance and its operations. This has allowed the access of hundred of million of events to obtain the results using Grid technologies for Distributed Analysis. Also, this activity helped in other physics studies of ATLAS experiment. 2 Introduction This work is framed within the context of the Standard Model (SM). The SM explains the interactions between the smallest constituents of matter. The SM classifies the constituents into fermions (half-integer spin) and bosons (integer spin). In Table 1.1 elementary particles are listed. Fermions can be divided in leptons and quarks grouped in three generations which are different from mass. Quarks have fractional electric charge and also color charge. The SM describes the strong, weak and electromagnetic interactions. The last two are unified by the electroweak formalism whose bosons are photon, W+− and Z0. This model predicts all bosons are massless which is in disagreement with experiments. To solve that, the Higgs mechanism was formulated adding an extra boson. The strong interaction takes over the quarks confinement by the color charge and the exchanged particles are gluons. The Standard Model is in agreement with the most of the experiments results. The last recent discovery of the Higgs boson puts the SM on an even more solid empirical basis. However, there is some evidence of effects that the Standard Model cannot explain such as the neutrino mass and the presence of dark matter. Extensions have been proposed among which the most popular are Supersymmetry and Extra Dimensions which incorporates more spatial dimensions. They are grouped under the expression “Beyond Standard Model” (BSM). The Large Hadron Collider (LHC) is located at CERN, with a circumference of 27 kilometres, at 100 metres of depth. It can reach a center-of-mass energy of 14 TeV, at a luminosity of 10^(34)cm^(−2)s^(−1). The LHC has four impact points where experiments are situated to detect collisions. One of these experiments is ATLAS (A Large Toroidal LHC Apparatus), the detector which has produced the data studied in this work. It is a general purpose detector, i.e., it covers many different physics objectives. Its shape is cylindrical with a diameter of 25 metres and 46 metres of length. Its weight reaches 7000 tones. The ATLAS subdetectors are distributed in concentric layers around the beam. The deepest subdetector can detect the particle tracks, the so-called Inner Detector. The following layer is the calorimeter that measures the energy of the particles and allows to identify them. The first component of calorimetry is the electromagnetic calorimeter (Liquid Argon) which detects energy from electric charged particles and photons. It is followed by the hadronic calorimeter (TileCal) that measures energy of hadrons. The most external layer is formed by the muon chambers. They measure the momentum of the muons and allow for a better identification. There are many events without interest produced in ATLAS. To filter these events, there is a three-level trigger system. The LHC experiments have strong challenges in computing aspects: a huge storage to save 25 PB per year, the processing of 100,000 CPUs and international access for 8000 physicists. The data of all LHC experiments are processed and analysed in a worldwide distributed computing environment based on Grid computing concept. Grid computing consists of sharing resources by centres spread around the world. In the case of LHC, a Grid guideline has been established for the four experiments in the Worldwide LHC Computing Grid (WLCG) project. All LHC experiments have chosen a hierarchical architecture that includes several “Tier” centres. A Tier centre is a cluster of computers capable of running the totality of the experiment-specific data processing software. In addition, the centre has to be Grid-enabled, which means that the general Grid software must be installed and maintained so that each centre can act as a component of a unique worldwide computing network. The adapted tiered hierarchy for computing model at the LHC is: one Tier-0 centre (CERN), 10 Tier-1 centres (National centres), around 80 Tier-2 centres (Regional centres) and several Tier-3 centres (institution level resources). In ATLAS, other guidelines have been added according to the requirements of the experiment since the data-taking. The MONARC model changed to ‘Mesh’ where transfers do not need to pass thought intermediate centres among Tier-2s that are certificated as Tier-2 Direct (T2D) due to its excellent connection and availability. Specific software has been developed by the ATLAS collaboration such as Athena for all the activities of the experiment (calibration, alignment, simulation and reprocessing). Another software example is Database which gives all the detector information in geometry and other parameters. All Grid computing resources has been tested successfully before data-taking in November 2009 by WLCG to be ready and functional. 3 Distributed Analysis framework The ATLAS analysis is distributed because the data are distributed around the world, and PanDA (Production and Distributed Analysis) system was developed to control all processes efficiently. This system achieves the compatibility of all sites with the ATLAS requirements. Some tools have been designed to make easier the access of Distributed Analysis for the ATLAS users such as Don Quixote 2 (DQ2) and ATLAS Metadata Interface (AMI) to manage data, and PanDA-Client and Ganga to send Grid jobs. The latter has been used for this study. The ATLAS collaboration has also done innovations to improve the Distributed Analysis such as implementing analysis and production tests called HammerCloud which excludes inefficient sites. Another example is to do automatic official data replicas to other sites in function of the user demand, the so-called PanDA Dynamic Data Placement (P2DP). In addition, there is a big task which consists of attending doubts and problems from ATLAS users in Distributed Analysis by the Distributed Analysis Support Team (DAST), where I participate since 2008. An example of the operations of the Distributed Analysis System in ATLAS has been shown with the study of Jet Substructure. Ganga has been used to send the Athena package needed and to choose the accurate tool to find the input data for analysis. If we were processing simulated data, then DQ2 was used but in the case of real data, AMI was the tool since it can read the list with the best data quality called Good Run List. When the input data information was obtained, job was split into subjobs according to the number of input files. Ganga looked for the available sites with the input data. It also gave the instructions to request a replica of the output data to another centre which was the IFIC Tier-3 centre in this case. These Grid jobs were distributed in 36 sites. In a period of time of 31 hours, 15 million of simulated events were analysed. In the case of real data, 158 million of events, which were recollected in 2010 with a center-of-mass energy of 7 TeV, were processed in 36 hours . 4 ATLAS Spanish Tier-2 Federation To illustrate the operations of a Tier-2 centre, we focused on the ATLAS Spanish Tier-2. It is a federation of three sites: IFIC (Valencia), IFAE (Barcelona) and UAM (Madrid). It contributes the 5% of all the ATLAS Tier-2 centres computing resources. Its availability, data transfers, storage and processing were observed to check its operations. The Spanish Tier-2 functions changed due to the computing model evolution. Because it is considered as a T2D, it has sent and received transfers which did not need to pass through its assigned Tier-1 centre (PIC). Other changes were noticed such as the possibility to make calibration tasks because the access of all the Database through the Frontier/Squid. According to the Service Availability Monitoring (SAM) test for three years, the reliability and availability are between 90% and 100%. The specific ATLAS availability average was 83% for Hammercloud analysis jobs and 92% for production from September 2011 to April 2013. The transfers sources were shown for three years. Transfers were 14 million as receptor and the same as emitter. The data volume transferred were 9 PB and 3.5 PB respectively. The total storage occupancy reached the 2 PB. Observing the occupancy evolution of the space tokens, the different uses of the ATLAS activities. Production and analysis are the most important activities in an ATLAS Tier-2 centre. 4.7 million of production jobs arrived at the Spanish Tier-2 in three years with a high efficiency (93%) which contributes the 1.78% of all ATLAS. In the analysis activity, 7.2 million of jobs run, contributing the 1.76% with respect to all ATLAS, with the efficiency of 87.9%. The Spanish Tier-2 federation is a reality and has a high efficiency thanks to a group of experts who has participated in the installation, maintenance and operations. Some of them have taken part in a team to help the physicist community from the three Spanish centres. They are called User Support and attend the topics about Distributed Analysis and Grid computing in ATLAS, where I am a member in the IFIC centre. 5 Jet substructure Finally, the first study of jet substructure was performed by ATLAS experiment. Substructure analysis is a crucial tool to identify boosted objects that may prove to be a powerful signature for BSM Physics. The jet algorithm used in this measurement is anti-kt with R-parameter value 1.0. The jet substructure that were measured are jet mass and splitting scales. The latter consists of the scale of the kt jet algorithm from two to one √d_(12) and from three to two components √d_(23). QCD simulated samples from different Monte Carlo generators and data from ATLAS detector taken in 2010 with a center-of-mass energy of 7 TeV and integrated luminosity of 35.0±1.1 pb^(−1) were analysed. Substructure variables are affected by the pile-up collisions for jet mass. The election of the first ATLAS data and selecting events with a single vertex allowed to suppress the pile-up effect. The calibration used was obtained by Monte Carlo (Pythia generator) comparing the variables values at hadron-level with the values from the reconstructed jets which depend on the mass, the energy and the pseudorapidity eta. The most important contributions in the systematic uncertainties were on scale and resolution of the jet transverse momentum. In addition, there were resolution and scale systematic uncertainties for each substructure variable. To validate the scale uncertainties, track-jets were used. They were compared with calorimeter jets. To calculate the resolution systematic uncertainties several Monte Carlo models were used. These models were different in generators, physics models to form hadrons or detector geometries. The effect in resolution and acceptance of the ATLAS detector was corrected to compare results with theoretical predictions. The unfolding matrix technique used is called Iterative Dynamically Stabilised unfolding. It consist of the creation of a transfer matrix matching the simulated data at hadron-level and the detector-level data. Each matching was done per each pT bin separately. Data were scaled by the reconstructed matching efficiency, multiplied by the transfer matrix and divided by the truth matching efficiency. The normalized cross section distributions in function of the substructure variables were resulted. The generator Pythia was in good agreement with data. The opposite behaviour happens with Herwig++ generator. The splitting scales were the best substructure variables which agree with data. 6 Conclusions The ATLAS computing model has evolved from hierarchical to Mesh model which has affected successfully to the T2Ds because this increases the running jobs because more data is received. The final target is to interconnect all kind of Tiers until to achieve that all work as one Cloud. The ATLAS Distributed Analysis is being done successfully since the tools developed by the collaboration to make easier the Grid use. The tools to manage data and to send jobs make user-friendly the Grid for ATLAS physicists like Ganga which was used for this thesis. During the data-taking, the analysis jobs have being increased. Meanwhile the Distributed Analysis have being improved applying new ideas. An ATLAS user support is being given by DAST which attend problems and clarifies doubts about Distributed Analysis. A Distributed Analysis example was shown which represents the data getting of the jet substructure study. A total of 11373 subjobs were sent (3205 for input simulated data and 8168 for real data). They were distributed in 36 sites and have lasted 31 hours for 15 million of simulated events and 36 hours for 158 million of real data events. The ATLAS Spanish Tier-2 was presented. Its contribution of 5% has been in a good agreement with the operations like availability (between 90 and 100%), transfers (14 million of transfers), storage (over 2PB of occupancy) and processing (4.7 million of production jobs and 7.2 million of analysis jobs). The observation of these parameters for three years showed how the computing model evolution affected satisfactorily a Tier-2 centre and also the different uses of the technology by each ATLAS activity. Another computing operation was presented which is the User support to help the users from the three Spanish sites. Jet substructure variables were measured: jet mass and splitting scales. The Monte Carlo predictions with Pythia was in agreement with data meanwhile Herwig++ did not reproduce well the jet mass distribution but it was adapted for the splitting scales. The splitting scales had also smaller systematic uncertainties. A pile-up dependence was observed which was reduced fixing the number of primary vertices to one. Elsewhere, methods have been developed to decrease this dependence with some of success. The distributions were corrected to compare them with theoretical models. In fact, some studies have tried to achieve a theoretical expression of jet mass. Since the publication of these results, top-antitop resonances studies have used this study to search boosted top quarks. These techniques increase the sensitivity of new physics searches. en_US
dc.description.abstract Study of Jet Substructure in the ATLAS experiment using Distributed Analysis within Spanish Tier-2 Infrastructures (Estudio de Subestructura de Jets en el experimento ATLAS usando Análisis Distribuido dentro de las Infraestructuras del Tier-2 Español) Resumen en español 1. Motivación En el Large Hadron Collider (LHC) se producen partículas consideradas objetos ‘boosted’ donde sus productos de desintegración se concentran en una pequeña parte del detector. El estudio de estos objetos pueden dar pistas de nueva física como en dimensiones extra y supersimetría, así como el estudio del bosón de Higgs. Con el fin de caracterizar estos objetos se han introducido variables de subestructura de jets. Este trabajo recoge el primer estudio de subestructura de jets con datos reales usando el algoritmo antiKt con párametro R=1.0. Todo ello se ha realizado en el marco del Modelo Estándar y a partir de los sucesos reales del experimento ATLAS. El análisis de datos de ATLAS se realiza utilizando las tecnologías Grid y el análisis distribuido. En este estudio de subestructura de jets ha tenido una gran importancia, ya que el trabajo realizado dentro del Tier-2 federado español en el entendimiento de su funcionamiento y la realización de algunas de sus operaciones ha permitido el acceso a cientos de millones de eventos para obtener los resultados mostrados. También ha permitido ayudar en otros estudios de física del experimento ATLAS donde se requería tal experiencia. 2 Introducción El marco teórico en el que se enmarca este trabajo es el Modelo Estándar, que es la interpretación actual del comportamiento de las partículas elementales. Separa las partículas en fermiones (spin semientero) encargadas de constituir la materia, y en bosones (spin entero) que son intercambiadas por los propios fermiones para interaccionar. Los tipos de interacción son fuerte, débil y electromagnética. Éstas dos últimas se unen mediante el formalismo electrodébil cuyos bosones responsables son el fotón, W^+− y Z^0. Este formalismo pronosticaba que todos los bosones no tenían masa lo que no concordaba con los resultados de los experimentos así que se formuló el mecanismo de Higgs que aportaba otro bosón extra. Este modelo está en completo acuerdo con los resultados de los experimentos de aceleradores de partículas, como por ejemplo el último descubrimiento del bosón de Higgs. Sin embargo, siguen varias discrepancias sin resolver como que no se incluye la gravedad, ni se considera que los neutrinos tengan masa o que no hayan candidatos para la materia oscura. Para incluirlas, otros modelos teóricos se han desarrollado denominados en general ’Más allá del modelo Estándar’. Los más populares son Supersimetría, que propone partículas nuevas llamadas ’supersimétricas’, y Dimensiones Extra, que incorporan más dimensiones espaciales a las tres ya conocidas. Estos retos que surgen de una física nueva han sido la razón de la contrucción del acelerador de protones Large Hadron Collider. Está localizado en el CERN, tiene una circunferencia de 27 kilómetros y situado a 100 metros de profundidad. Puede alcanzar una energía en el centro de masas de 14 TeV, a una luminosidad de 10^34 cm^−2s^−1. Tiene cuatro puntos de impacto donde hay experimentos situados para detectar las colisiones. Uno de esos experimentos es ATLAS (A Large Toroidal LHC Apparatus), cuyos datos han sido analizados para este estudio. Su propósito es de carácter general, por tanto cubre una gran variedad de objetivos de la física. Tiene forma cilíndrica con 25 metros de diámetro y 46 metros de longitud con un peso de 7000 toneladas. Sus componentes o subdetectores se distribuyen de forma concéntrica alrededor del haz de protones. El primer subdetector más interior es el encargado de detectar las trazas, también llamado ‘Inner Detector’. El siguiente subdetector es el calorímetro que mide la energía de las partículas, lo que permite identificarlas. El primer componente es el calorímetro electromagnético (‘Liquid Argon’), que detecta la energía de las partículas cargadas y de los fotones. Después se situa el calorímetro hadrónico (‘TileCal’), que detecta la energía de los hadrones. La capa más exterior de subdetectores la forma las cámaras de muones que miden el momento de estas partículas y permiten una mejor identificación gracias a estar rodeados de un campo magnético toroidal. En ATLAS se producen muchos eventos sin interés para la física actual. Para filtrar los eventos no deseados y guardar aquellos eventos que nos aportan información se usa un sistema de ‘trigger’ a tres niveles. El LHC y sus experimentos está suponiendo un desafío computacional como es la necesidad de una enorme capacidad para almacenar 25 PB por año, de gran procesamiento entorno a 100,000 CPUs y de que haya acceso internacional a los datos distribuidos por todo el mundo para 8000 físicos. Los datos procedentes de todos los experimentos del LHC son procesados y analizados por medio de una computación distribuida basada en el modelo Grid. El Grid consiste en compartir recursos computacionales por todos los centros repartidos por todo el mundo que trabajan en el experimento. Para el caso del LHC, se establecieron unos parámetros comunes mediante el projecto Worldwide LHC Computing Grid (WLCG). Los experimentos del LHC han establecido una arquitectura jerárquica basada en ‘Tiers’. Un Tier es un centro computacional capaz de ejecutar la totalidad del software espec ífico para procesar los datos del experimento. Además, el centro ha de ser accesible en el Grid, lo que implica que el software del Grid (middleware) ha de ser instalado y mantenido de tal forma que cada centro pueda actuar como un componente de una red única y mundial. El modelo computacional jerarquizado en el LHC es: un Tier-0 (CERN), 10 Tier-1s (centros nacionales), unos 80 Tier-2s (centros regionales) y varios Tier-3s (recursos a nivel institucional). Dentro de ATLAS, se han ido añadiendo otros requisitos para la computación donde se han adaptado las exigencias del experimento desde que comenzó la toma de datos. Se cambió del modelo jerárquico al modelo ‘Mesh’ (de rejilla) donde las transferencias no necesitan pasar por centros intermedios al calificarse centros de destino como Tier-2 directos (T2D) por su excelente conexión y disponibilidad. Se ha desarrollado software específico por la colaboración ATLAS como por ejemplo Athena para el análisis y procesamiento de los datos. Otro ejemplo de software es la base de datos (‘Database’) que actualiza la información del detector ATLAS en geometr ía y otros parámetros. Con el fin de tener todo preparado y operativo para la toma de datos, se procedió a la verificación de todo el modelo Grid obteniéndose buenos resultados dentro del contexto general del proyecto WLCG. 3 Análisis distribuido El análisis en ATLAS se hace de manera distribuida dentro del Grid. Se desarrolló un sistema para controlar con eficacia todos los procesos relacionados con los trabajos Grid para ATLAS, este sistema se llamó PanDA. Consigue la compatibilidad de todas las granjas computacionales con los requisitos de ATLAS. La colaboración ATLAS ha creado herramientas para facilitar el acceso al análisis distribuido a los usuarios, como son Don Quixote 2 (DQ2) y ATLAS Metadata Interface (AMI) para la gestión de datos, y PanDA-Client y Ganga para el envío de los trabajos al Grid. Concretamente, hemos utilizado Ganga para el estudio de subestructura de jets. La colaboración ATLAS, para mejorar el análisis distribuido, ha implementado una serie de tests basados en modelos de análisis y producción llamados HammerCloud, que excluyen aquellos centros de participar en esas actividades. Otro ejemplo de estas mejoras son las copias automáticas de datos oficiales a otras granjas según la demanda cuya actividad se denomina PanDA Dynamic Data Placement (P2DP). También hay que mencionar la gran tarea de atender las dudas y problemas de los usuarios en análisis distribuido por parte del Distributed Analysis Support Team (DAST). Un ejemplo de cómo se ha usado el análisis distribuido ha sido el realizado para el estudio de subestructura de jets. Ganga se ha usado para enviar el paquete de Athena necesario y elegir la herramienta adecuada para encontrar los datos de entrada que analizar. Si se escogía datos simulados como datos de entrada entonces se usaba DQ2 pero si se trataba de datos reales entonces se elegía AMI porque podía interpretar una lista de mejores eventos bajo criterios de calidad que se denomina Good Run List. Una vez obtenida la información de los datos de entrada, se dividió el trabajo principal en sub-trabajos en base al número de ficheros. Buscó los centros de computación disponibles con los datos. Ganga también aportó instrucciones para que se pidiera una réplica automática de los datos de salida a otro centro, que en este caso se guardó en el Tier-3 del IFIC. Estos trabajos se han distribuido en 36 centros, y el tiempo empleado ha sido de 31 horas para 15 millones de eventos simulados y 36 horas para 158 millones de eventos de datos reales. Estos datos corresponden al año 2010 con energía del centro de masas de 7 TeV. 4 El Tier-2 español federado de ATLAS Con el fin de ilustrar el funcionamiento de un centro Tier-2 de ATLAS, nos hemos centrado en el Tier-2 español. Es una federación de tres centros: IFIC (Valencia), IFAE (Barcelona) y UAM (Madrid). Tiene una contribución del 5% respecto de todos los Tier-2 de ATLAS en recursos computacionales. Sus funciones han cambiado por pasar a otro modelo de computación donde ha recibido y enviado transferencias sin necesidad de ir a través del Tier-1 español, PIC. También los cambios se han notado al poder hacer tareas de calibración, debido a un acceso más flexible de toda la base de datos mediante el Frontier/Squid por parte de los Tier-2s. Según los tests de Service Availability Monitoring (SAM) en el periodo de tres años, los parámetros de fiabilidad y accesibilidad fueron entre 90– 100%, y la accesibilidad específica media de ATLAS se ha evaluado en un 83% para análisis y 92% para producción en el periodo desde septiembre de 2011 hasta abril de 2013. Las transferencias han sido de 14 millones tanto las recibidas como las enviadas, donde se ha transferido un volumen de datos de 9 PB y 3.5 PB respectivamente. Se ha observado que la ocupación del espacio supera 2 PB. Mediante la observación de la evolución del espacio de los space tokens (espacios reservados), se ha reflejado los diferentes usos por cada una de las actividades de ATLAS. La produccion de datos simulados y el análisis son las actividades más importantes en un Tier-2 de ATLAS. 4.7 millones de trabajos de producción llegaron a este Tier-2 estos últimos tres años con una eficiencia alta de 93% que contribuye el 1.78% respecto de todos los trabajos en ATLAS. En la actividad de análisis se ejecutaron 7.2 millones de trabajos, contribuyendo en un 1.76% respecto al total de ATLAS, con una eficiencia del 87.9%. En la instalación, mantenimiento, operación y explotación del Tier-2 federado español han participado un grupo de expertos que lo han hecho posible y eficaz. Algunos de ellos han formado parte del equipo de ayuda para los físicos que realizan los análisis en los tres centros españoles. Este equipo es el denominado User Support en el que yo formo parte activa. 5 Subestructura de jets Finalmente, destacar que se ha colaborado en el estudio de física pionero en ATLAS de la subestructura de jets, que está sirviendo para determinar objetos ‘boosted’ (empujados). Éstos objetos son de interés para la física más allá del Modelo Estándar dentro de ATLAS y LHC. Se caracterizan porque a momentos transversos mucho más grandes que su masa, los productos de desintegración se concentran en una pequeña parte del detector y no pueden diferenciarse. Entonces se aplica la técnica de considerar un único jet que englobe todos los productos de desintegración, para luego estudiar su estructura interna y así poder identificar las partículas pesadas ‘boosted’ y descartar gluones y quarks ligeros. El algoritmo de jet estudiado ha sido el denominado AntiKt, que es el usado por defecto en el detector, aunque el parámetro R se ha aumentado hasta 1.0 para poder englobar todos los productos de la desintegración. Se han escogido como variables de subestructura de jets las más fundamentales, que son la masa intrínseca del jet y las ‘splitting scales’ (escalas de división). Estas últimas se obtienen deshaciendo los últimos pasos del algoritmo Kt para pasar de un jet a dos partes (√d_12) y de dos a tres partes (√d_23). Se han analizado muestras simuladas de procesos de interacción fuerte con diferentes generadores de Monte Carlo y datos reales procedentes del detector ATLAS obtenidas en el año 2010 con una energía en el centro de masas de 7 TeV y con una luminosidad de 35.0 ± 1.1 pb^−1. Las variables de subestructura se ven afectadas por las colisiones adicionales que se originan (‘pile-up’). Al estudiar los primeros datos y fijar que el número de vértices primarios sea uno, hemos conseguido evitar el efecto que el ‘pile-up’ hace en estas variables. La calibración usada se ha obtenido mediante Monte Carlo (generador usado es Pythia), comparando el valor a nivel hadrónico con el de los jets reconstruidos de las variables de subestructura, los cuales dependen de la masa, la energía y la ‘pseudorapidity’ eta. Las contribuciones más importantes en los errores sistemáticos han sido en la escala y resolución del momento transverso del jet. Se han incluido además errores sistemáticos de la escala y resolución de la masa del jet y las ‘splitting scales’. Para validar los errores sistemáticos de escala se han usado los jets sacados del detector de trazas, que se han comparado con los jets del calorímetro usando el mismo algoritmo de jets. Para calcular los errores sistemáticos en la resolución se ha usado varios modelos de Monte Carlo con parámetros variados como el tipo de generador, el modelo teórico de la formación de hadrones e incluso cambiando la geometría del detector. Se ha corregido el efecto de la resolución y la aceptancia del detector, y así conseguir que pueda ser comparado con predicciones teóricas. Para ello se ha usado una técnica de desdoblamiento con matrices denominado Iterative Dynamically Stabilised unfolding. La técnica consiste en crear una matriz de conversión con datos simulados comparando los valores a nivel de generación y a nivel detector, de donde se obtienen las parejas de jets que coinciden. La comparación se hace para cada intervalo de momento transverso. Para obtener los datos corregidos se ha multiplicado la eficiencia de la coincidencia en la parte reconstruida luego se ha multiplicado por la matriz de conversión y dividido por la eficiencia de la coincidencia en la parte a nivel de generación. Se han obtenido como resultados las distribuciones de la sección eficaz normalizada en función de las variables de subestructura. El generador Pythia ha descrito bien los datos reales, sin embargo, no ha pasado lo mismo con el generador Herwig++. De entre las variables de subestructura, las ‘splitting scales’ han concordado mejor con los datos que la masa del jet. 6 Conclusiones Este estudio ha mostrado los primeros resultados de subestructura de jets para el algoritmo AntiKt con R=1.0 en el experimento ATLAS y a través de un análisis distribuido mediante computación Grid. El modelo computacional de ATLAS ha evolucionado de un modelo MONARC a otro ‘Mesh’ ante las mejoras de conexión a internet que ha afectado positivamente a las operaciones de los Tier-2s. El objetivo final es interconectar todos los Tiers hasta que todo se comporte como una única Cloud. El análisis distribuido en ATLAS se está realizando con éxito gracias a las herramientas desarrolladas por la colaboración, que facilitan el uso del Grid. Las herramientas para la gestión de datos y enviar los trabajos de análisis permiten un manejo más fácil del Grid para los físicos de ATLAS, como es el caso de Ganga que se ha usado para este trabajo. A medida que se han tomado los datos en el experimento y ha aumentado el uso de las granjas que conforman la computación de ATLAS en la actividad de análisis, se ha ido mejorando el análisis distribuido aplicando nuevas ideas. También se está dando un servicio de apoyo a los usuarios de ATLAS por medio de DAST, que facilita la resolución de problemas y aclaración de dudas en el tema de análisis distribuido. Se ha presentado un caso de análisis distribuido que representa el proceso utilizado para la obtención de los datos del estudio de subestructura de jets. Se han enviado un total de 11373 sub-trabajos (3205 procesaron datos simulados y 8168 datos reales). Se han distribuido a 36 granjas y ejecutado en un periodo de tiempo de 31 horas para 15 millones de eventos simulados y 36 horas para 158 millones de eventos de datos reales siendo sólo los pertenecientes al 2010 con energía del centro de masas de 7 TeV. Hemos mostrado como ejemplo de Tier, el Tier-2 federado español de ATLAS. Su contribución del 5% satisface todos los requisitos de un Tier-2 en accesibilidad (entre 90 y 100%), transferencias (14 millones de transferencias realizadas), almacenamiento (ocupación de más de 2PB) y procesamiento (4.7 millones de trabajos en producción y 7.2 millones en análisis). Observando estas operaciones durante tres años se ha apreciado cómo ha influido el cambio de modelo y las propias actividades de ATLAS al Tier-2. Además el trabajo realizado ha dado lugar a el User Support que presta ayuda a usuarios de los tres centros en temas de análisis distribuido y computación Grid. En cuanto a la parte de análisis de física: Las variables de subestructura de jets que se han medido son la masa del jet y las ‘splitting scales’. Han sido las primeras medidas en el LHC. Las predicciones de Monte Carlo con generador Pythia han estado en concordancia con los datos del experimento. El generador Herwig++ no ha reproducido bien la distribución de la masa del jet, pero se ha adaptado para las splitting scales. La variable de subestructura con peor concordancia con Monte Carlo ha sido la masa del jet. Las splitting scales han aportado errores sistemáticos pequeños. Existe una dependencia de las variables de subestructura con el ‘pile-up’ y para reducir ese efecto hemos fijado en uno el número de vértices primarios. En estudios posteriores se han desarrollado métodos que han disminuido en parte esa dependencia. Se han corregido las distribuciones para que pueda ser comparada con modelos teóricos. De hecho, se pueden consultar estudios teóricos en los que se ha pretendido obtener la masa de los jets. Desde la publicación de este resultado, grupos de física que realizan estudios de resonancias top-antitop han usado este trabajo para buscar quarks top ‘boosted’ del alto momento. Estas técnicas aumentan la sensibilidad en búsquedas de nueva física. es_ES
dc.format.extent 153 p. es_ES
dc.language.iso en es_ES
dc.subject distributed analysis es_ES
dc.subject tier-2 español es_ES
dc.subject grid computing es_ES
dc.subject ATLAS es_ES
dc.subject física de partículas es_ES
dc.subject jet substructure es_ES
dc.subject high energy physics es_ES
dc.title Study of Jet Substructure in the ATLAS Experiment using Distributed Analysis within Spanish Tier-2 Infrastuctures es_ES
dc.type doctoral thesis es_ES
dc.subject.unesco UNESCO::FÍSICA::Física de altas energías es_ES
dc.embargo.terms 0 days es_ES

Visualització       (8.373Mb)

Aquest element apareix en la col·lecció o col·leccions següent(s)

Mostra el registre parcial de l'element

Cerca a RODERIC

Cerca avançada

Visualitza

Estadístiques