Todo comenzó en 2015 cuando el experimento ATLAS en el CERN (Centro Europeo para la Investigación Nuclear) observó por primera vez un trío de partículas, un par de quarks top-antitop y un bosón W gracias a las colisiones que tuvieron lugar durante la primera etapa del LHC (siglas de Gran Colisionador de Hadrones), que tuvo lugar entre 2010 y 2012.

Las mediciones posteriores utilizaron datos obtenidos durante la segunda etapa (2015-2018) señalaron que el trío ttW estaba apareciendo más de lo previsto teniendo en cuenta el modelo estándar de la física de partículas, que los físicos utilizan para describir el comportamiento de las partículas subatómicas.

La medición más reciente (y más precisa) señala que la tasa de producción total es aproximadamente un 20% más alta que las predicciones teóricas. El proceso que crea estas tres partículas después del impacto es bastante raro: solo una de cada 50.000 colisiones en el LHC produce este trío y el problema es que tienen una vida corta y se descomponen casi de inmediato, por lo que el equipo identificó los eventos ttW en función de los electrones y muones en los que se descomponen.

Para llegar a esta conclusión, los miembros del Laboratorio Nacional de Aceleradores SLAC (parte del grupo ATLAS) han pasado los últimos tres años completando un análisis complejo para medir el proceso para estimar y eliminar los efectos de fondo y así maximizar la precisión del análisis. Los resultados ayudarán a los investigadores a probar mejor las teorías de la física de partículas elementales, así como a los experimentadores que estudian otros procesos de física de partículas.

«Las únicas mediciones de la producción de ttW provienen del LHC: es el primer colisionador que puede producir este tipo de eventos a un ritmo lo suficientemente grande como para ser medido – explica Brendon Bullard, líder del equipo, en un comunicado – .Todavía no está claro qué es lo que podría estar causando exactamente esta discrepancia, pero los resultados parecen indicar que está sucediendo algo que no estamos teniendo en cuenta”.

Medio billón de páginas con datos…por segundo

El equipo de Bullard especula dos posibilidades para explicar esto. Una es que la física más allá del modelo estándar sea la responsable de estos efectos. La otra alternativa es que los modelos utilizados actualmente carezcan de los elementos necesarios para predecir correctamente la producción de ttW. Los científicos expertos en física teórica realizan predicciones a partir del modelo estándar y puede que aún no tengamos todos los datos para aplicar en las simulaciones, lo que podría explicar la discrepancia. A partir de ahora habrá que hacer nuevos cálculos y entrar en un terreno poco explorado.

«Esto es algo que no se ha hecho antes porque es muy difícil – añade Bullard –. Pero ahora, con nuestro resultado, ya hay teóricos que están interesados en explorar este campo. Los resultados que obtuvimos son una medida que será muy útil para seguir comprendiendo mejor el modelo estándar y tal vez incluso identificar algunos efectos más allá del mismo».

Una de las preguntas lógicas es cómo es posible que los datos comenzarán a obtenerse en 2012 y recién se analizaran en 2015… La respuesta tiene que ver con el enorme caudal de información que genera el LHC. Cada segundo, cuando está en marcha el colisionador, se producen mil millones de colisiones de partículas lo que genera alrededor de un petabyte de datos… por segundo. LO que equivaldría a medio billón de páginas. Aunque mucha de esta información se descarta o es redundante, es comprensible que tome algo más de lo normal analizarla.

 

Fuente: adslzone