114 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.
A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, “la partícula de Dios”, requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.
El corazón de la red
Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, “con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años”.
El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.
Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.
Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.
Noticia completa en Tendencias 21