EL CERN presentó nueva red informática
El CERN, donde se creó la Worldwide Web, presentó una nueva red informática que permite a miles de científicos de todo el mundo echarle un vistazo a los datos de sus enormes experimentos.
Unos 7.000 científicos de 33 países están conectados ahora a través de la red informática del CERN, la Organización Europea de Investigación Nuclear, para analizar los datos de su experimento de colisión de partículas, que comenzó el mes pasado con la intención de investigar sobre la naturaleza de la materia.
El experimento, que podría ofrecer pistas sobre los orígenes del universo, comenzó el 10 de septiembre y tuvo que detenerse nueve días después debido a una filtración de helio en el túnel de 27 kilómetros del Gran Colisionador de Hadrones del CERN.
Cuando se reinicie el año que viene, los físicos involucrados en el experimento tendrán acceso a los datos en tiempo real desde sus ordenadores, gracias la red que conecta más de 100.000 procesadores de 140 centros de todo el mundo.
El enorme superordenador distribuido se construyó para el proyecto del LHC, pero tiene también amplias implicaciones en el estudio de la ciencia, indicó Ian Bird, responsable del proyecto.
"Muchos otros investigadores y proyectos se están beneficiando ya", aseguró. "La red de computación está permitiendo formas completamente nuevas de hacer ciencia en la que se necesita gestionar grandes volúmenes de datos y una gran capacidad de análisis".
La cantidad de datos con la que se trabaja en el mayor experimento científico jamás realizado es difícil de abarcar.
El proyecto del LHC dispara haces de protones en direcciones opuestas en un túnel situado a 100 metros bajo la frontera franco suiza, a las afueras de Ginebra.
A pleno funcionamiento, el LHC producirá 600 millones de colisiones de protones por segundo, generando datos 40 millones de veces por segundo.
Esa información se filtrará en los cuatro grandes detectores subterráneos, el mayor de los cuales es del tamaño de un edifico de cinco pisos, para seleccionar un total de 100 colisiones por segundo.
El flujo de datos será de unos 700 megabytes por segundo, o 15 millones de gigabytes por año durante entre 10 y 15 años, lo suficiente para llenar tres millones de DVD al año o crear una torre de discos compactos dos veces más alta que el monte Everest.
"Para analizar esa cantidad de datos se requiere no sólo de muchos ordenadores sino de un nuevo paradigma informático: eso es lo que llamamos la red y eso es lo que vinimos aquí hoy a celebrar", dijo el portavoz del CERN, James Gillies.
El experimento, que podría ofrecer pistas sobre los orígenes del universo, comenzó el 10 de septiembre y tuvo que detenerse nueve días después debido a una filtración de helio en el túnel de 27 kilómetros del Gran Colisionador de Hadrones del CERN.
Cuando se reinicie el año que viene, los físicos involucrados en el experimento tendrán acceso a los datos en tiempo real desde sus ordenadores, gracias la red que conecta más de 100.000 procesadores de 140 centros de todo el mundo.
El enorme superordenador distribuido se construyó para el proyecto del LHC, pero tiene también amplias implicaciones en el estudio de la ciencia, indicó Ian Bird, responsable del proyecto.
"Muchos otros investigadores y proyectos se están beneficiando ya", aseguró. "La red de computación está permitiendo formas completamente nuevas de hacer ciencia en la que se necesita gestionar grandes volúmenes de datos y una gran capacidad de análisis".
La cantidad de datos con la que se trabaja en el mayor experimento científico jamás realizado es difícil de abarcar.
El proyecto del LHC dispara haces de protones en direcciones opuestas en un túnel situado a 100 metros bajo la frontera franco suiza, a las afueras de Ginebra.
A pleno funcionamiento, el LHC producirá 600 millones de colisiones de protones por segundo, generando datos 40 millones de veces por segundo.
Esa información se filtrará en los cuatro grandes detectores subterráneos, el mayor de los cuales es del tamaño de un edifico de cinco pisos, para seleccionar un total de 100 colisiones por segundo.
El flujo de datos será de unos 700 megabytes por segundo, o 15 millones de gigabytes por año durante entre 10 y 15 años, lo suficiente para llenar tres millones de DVD al año o crear una torre de discos compactos dos veces más alta que el monte Everest.
"Para analizar esa cantidad de datos se requiere no sólo de muchos ordenadores sino de un nuevo paradigma informático: eso es lo que llamamos la red y eso es lo que vinimos aquí hoy a celebrar", dijo el portavoz del CERN, James Gillies.
0 comentarios:
Publicar un comentario