_
_
_
_
_
CIENCIA

Riesgo de sobredosis de datos en el acelerador de partículas LHC

La información de las colisiones que se acumula puede llegar a dificultar la identificación de la partícula de Higgs

El acelerador de partículas LHC genera una cantidad tan enorme de datos ahora que está funcionando a una energía jamás alcanzada en ninguna máquina de este tipo, que la acumulación de información puede llegar a dificultar la identificación de la famosa partícula de Higgs, señalan los expertos. Por ahora, la alta capacidad de computación que tienen los experimentos, el software y los recursos técnicos avanzados permiten afrontar el reto, pero no se descarta que en algún momento convenga reducir la cantidad de colisiones para no perder información, señala la revista Nature.

El LHC (en el Laboratorio Europeo de Física de Partículas, CERN, junto a Ginebra) reanudó su operación el mes pasado con una energía de cuatro teralectronvoltios (TeV) por haz y funciona a pleno rendimiento sin problemas. Para obtener más y más colisiones y, por tanto, más datos para aumentar la probabilidad de encontrar señales del Higgs, se van mejorando las prestaciones del acelerador concentrando mejor los haces (para aumentar la probabilidad de choque de las partículas en el centro de los detectores) y cargándolos con más protones. Pero al mismo tiempo aumentan las dificultades para registrar la información científica que se produce, lo que constituye todo un reto de computación. Los haces están formados por minúsculos paquetes que contienen billones de protones y chocan decenas de millones de veces por segundo, informa en Nature Geoff Brumfiel.

El avanzado sistema de computación GRID de los experimentos del LHC va al límite para manejar los datos producidos y los expertos de los detectores van optimizando sus prestaciones. Pero es una carrera frenética para estar a la altura del éxito del acelerador.

Cada vez que se cruzan dos minúsculos paquetes de protones de los haces generan unas 27 colisiones de media, pero en las próximas semanas serán más de 30 y se llegará a 40. Sin embargo, los dos mayores detectores, ATLAS y CMS fueron diseñados para manejar un par de docenas de colisiones a la vez y han tenido que mejorar sus prestaciones para no perder información. Los ordenadores tienen que reconstruir los efectos de cada colisión a partir de las trazas que dejan las partículas producidas e ir descartando las que carecen de interés para los análisis físicos. Los responsables del acelerador están muy pendientes de las necesidades de los científicos y han explicado a Nature que si los experimentos pueden manejar la cada vez mayor cantidad de datos –ya de por si ingente- de las colisiones, seguirán proporcionándoselos, pero que en caso contrario pueden disminuir la producción de choques de partículas.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_