Sólo faltan seis meses para que los físicos del CERN (Centro Europeo de Investigación Nuclear), y por extensión la comunidad científica, tomen posesión de una de las herramientas más deseadas: el mayor acelerador de partículas del mundo, conocido como LHC (Large Hadron Collider). Y como era de esperar, el proyecto va a ser uno de los mayores experimentos de todos los tiempos: el LHC, junto a una extensa y potente infraestructura grid, nunca antes desplegada, van a permitir estudiar la materia y el comportamiento de las partículas y, con ello, encontrar respuestas sobre el universo. Unas respuestas que sólo se obtendrán gracias a la mencionada red global de alta velocidad, que aglutina la potencia de 100.000 ordenadores, muchos de ellos PCs, imprescindibles para procesar las "toneladas" de datos generados por el acelerador.
El universo esta constituido por partículas de materia de las que los científicos tienen todavía un conocimiento limitado. Conocer algo más de la composición de dichas partículas favorecerá la comprensión del propio universo, de su origen y de su evolución. El fundamento de esa infraestructura es el backbone de la red, de 10 Gbps, que interconectará 11 centros de supercomputación y data centers con centros de datos científicos, conformando la red grid de mayor envergadura.
El otro gran protagonista del experimento es el acelerador de partículas. "El LHC, un anillo subterráneo de 27 kilómetros de perímetro que consigue acelerar los protones hasta que alcanzan altísimas energías, que luego se van transmitiendo a base de choques entre ellos, provocando una especie de fuegos artificiales de partículas de materia. Entonces, por medio de unos sofisticados detectores, cada 25 nanosegundos recogemos las señales de las colisiones. Las velocidades con las que salen los datos de esos detectores para ser almacenados y procesados se mide en cientos de megabytes por segundo", nos explica Francois Grey, director de comunicaciones TI del CERN.
Noticia completa en eWeek (españa)