Mostra el registre parcial de l'element
dc.contributor.advisor | Orduña Huertas, Juan Manuel | |
dc.contributor.advisor | González de la Hoz, Santiago | |
dc.contributor.author | Fernández Casaní, Álvaro | |
dc.contributor.other | Departament d'Informàtica | es_ES |
dc.date.accessioned | 2023-03-08T12:36:45Z | |
dc.date.available | 2023-03-09T05:45:06Z | |
dc.date.issued | 2023 | es_ES |
dc.date.submitted | 07-03-2023 | es_ES |
dc.identifier.uri | https://hdl.handle.net/10550/85724 | |
dc.description.abstract | The work presented in this thesis is framed in the context of the EventIndex project of the ATLAS experiment, a big particle detector of the LHC (Large Hadron Collider) at CERN. The objective of the project is to catalog all the particle collisions, or events, recorded at the ATLAS detector and also simulated over the duration of the experiment. With this catalog, data can be characterized at event granularity, important for searching and locating events by the end users. Other automatic checkings can be done in the data reprocessing chain, in order to assure its correctness and optimize future processings. Due to the rise in the production rates and total volume of the data expected for Run 3 (2022-2025) and the HL-LHC (end of the 2020 decade), a scalable system is required also to simplify previous implementations. In this thesis we present the contributions to the project in the areas of distributed data collection, storage of massive volumes of data and access to them. A small quantity of information (metadata) by event is collected from CERN (Tier-0), and distributedly worldwide in the grid in all the computing centers part of the ATLAS Experiment (10 Tier-1, and around 70 Tier-2). We present a new pull model for data collection in the grid with an object store as a temporary store, from where the data can be dynamically retrieved to be ingested at the final backend. We also present the contributions to a big data store using HBase/Phoenix, able to sustain the required data rates and total volume of data, and that simplifies the limitations of the previous hybrid solutions. Finally, we present a computing framework and tools using Spark for the data access, and solving the analytic use cases that access large amounts of data, such as overlaps or duplicate events detection. | en_US |
dc.description.abstract | El trabajo de esta tesis se enmarca dentro del proyecto EventIndex del experimento ATLAS, un gran detector de partı́culas del LHC (Gran Colisionador de Hadrones) en el CERN. El objetivo del proyecto es catalogar todas las colisiones de partı́culas, o eventos, registrados en el detector ATLAS y también simulados a lo largo de sus años de funcionamiento. Con este catálogo se pueden caracterizar los datos a nivel de evento para su búsqueda y localización por parte de los usuarios finales. También se pueden realizar comprobaciones en la cadena de registro y reprocesado de los datos, para comprobar su corrección y optimizar futuros procesos. Debido al incremento en las tasas y volumen de datos esperados en el Run 3 (2022-2025) y el HL-LHC (finales de la década del 2020), se requiere un sistema escalable y que simplifique implementaciones anteriores. En esta tesis se presentan las contribuciones al proyecto en las áreas de recolección de datos distribuida, almacenamiento de cantidades masivas de datos y acceso a los mismos. Una pequeña cantidad de información (metadatos) por evento es indexada en el CERN (Tier-0), y de forma distribuida en el grid en todos los centros de computación que forman parte del experimento ATLAS (10 Tier-1, y del orden de 70 Tier-2). En esta tesis se presenta un nuevo modelo de recolección de datos en el grid basado en un object store como almacenamiento temporal, y con selección dinámica de datos para su ingestión en el almacén de datos final. También se presentan las contribuciones a una nueva solución en un único y gran almacén de datos basado en tecnologı́as de macrodatos (Big Data) como HBase/Phoenix, capaz de sostener las tasas y volumen de ingestión de datos requeridos, y que simplifica y soluciona los problemas de las anteriores soluciones hı́bridas. Finalmente, se presenta un marco de computación y herramientas basadas en Spark para el acceso a los datos y la resolución de cargas de trabajo analı́ticas que acceden a grandes cantidades de datos, como el cálculo del solapado (overlaps) entre eventos de distintos datasets, o el cálculo de eventos duplicados. | es_ES |
dc.format.extent | 177 p. | es_ES |
dc.language.iso | en | es_ES |
dc.subject | distributed computing | es_ES |
dc.subject | grid | es_ES |
dc.subject | big data | es_ES |
dc.subject | storage | es_ES |
dc.title | Performance Improvements of EventIndex Distributed System at CERN | es_ES |
dc.type | doctoral thesis | es_ES |
dc.subject.unesco | UNESCO::CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Arquitectura de ordenadores | es_ES |
dc.subject.unesco | UNESCO::CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Dispositivos de almacenamiento | es_ES |
dc.embargo.terms | 0 days | es_ES |