Blog de robótica e inteligencia artificial

6/18/2012

Grid computing, y el CERN

Lo más normal es que a alguien hayáis oído la expresión compartir es vivir típica cuando alguien conocido os pide algo con esa graciosa frase. Yo suelo decir que además de eso, existe la expresión racanear es sobrevivir. Pero bueno, eso es filosofía barata y me voy por las ramas. Después vuelvo al compartir.

Para situarnos en el post de hoy, hay que explicar que existen multitud de investigaciones en el mundo para las cuales se necesitan muuuchas horas de ordenador de procesamiento datos y muuuuchos ordenadores. Un ejemplo claro de cuándo hace falta es por ejemplo en investigaciones en las que los algoritmos requieren mucho tiempo para converger y necesitan muchas horas de trabajo del microprocesador hasta llegar a una solución con la precisión aceptable para el investigador. Este ejemplo me costó entenderlo a mí, y es que al contrario de algoritmos que os hayan enseñado en la universidad, no todos se resuelven en una milésima de segundo, sino que hay algunos muy complejos.

Otro caso en el que son necesarias muchas horas de simulación son las simulaciones de las piezas mecánicas, es decir, simulaciones que se podrían hacer en programas como Cosmos Solidworks o Pro Engineer. Si el mallado que asignamos a la pieza es muy muy fino y sometemos a la pieza a un esfuerzo concreto, el programa tardará tiempo en calcular los esfuerzos o deformaciones que sufra cada elemento diferencial de la pieza, y en consecuencia, la pieza entera. 



No hay proyectos de investigación que sólo se dediquen a hacer estas cosas, pero es posible que sea un paso intermedio en algún cálculo. Si un proceso de estos requiere muchas horas o días de procesamiento, es posible que nos interese añadir algún otro ordenador que "ayude" en el procesamiento de estos cálculos. Entonces, algo que se puede hacer es conectar en paralelo varios ordenadores a realizar una simulación, por ejemplo. Esto se puede realizar con relativa facilidad, y aunque esto sea un poco antiguo da una idea del proceso. A este modo de trabajar se le llama grid computing.

El grid computing consiste en compartir los recursos de ordenadores, como capacidad de procesamiento y de almacenamiento, incluso entre ordenadores geográficamente distanciados. De hecho, este técnica tiene una finalidad muy parecida a la web, que nació en el CERN en los 90, sólo que el protocolo www sólo compartía información entre distintos ordenadores. De hecho, el CERN está muy interesado en el grid computing, y es que la cantidad de información que genera el LHC es E-S-P-E-C-T-A-C-U-L-A-R.

Para dar algunos datos, genera aproximadamente el 1% de toda la información de la Red, y para transportar los datos que se generan haría falta un ancho de banda de 1Gb/s. El LHC genera más o menos 15 petabyes, es decir, 15 millones de gigabyes. Casi ná. Por lo tanto, se ve necesaria una arquitectura de compartir recursos para poder procesar toda la información y cálculos para analizar los resultados que arroja este experimento, cuyos resultados se pueden seguir bastante al día en el fantástico blog de La Mula Francis.

Como consecuencia, para generar toda esta información, se crearon dos redes grid en el mundo: LHC Computing Grid (LCG) por un lado y Enabling Grids for E-sciencE (EGEE) por otro (aunque de ésta segundo hacen uso otros proyectos de investigación también). Ahí es nada. En total se reúnen más de 20.000 ordenadores que realizan unos 30.000 procesos diariamente.

Os recomiendo encarecidamente visitar esta páginas, instalaros el componente Java y ver cómo y dónde se está procesando datos del LHC. En la siguiente imagen se distingue Europa, es simplemente un pantallazo del momento en que entré yo.


También hay redes grid más pequeñas, como una que tiene el CERN y UK: gridPP. Pero bueno, para seguir aportando valor añadido al artículo, diré que he encontrado un buen artículo de cómo funciona o cómo es posible técnicamente trabajar con estos ordenadores compartidos aquí. Para dejaros con un aperitivo, la clave es usar un tipo de software especial llamado middleware, aunque también lo veréis como midware.

Por cierto, en esta página podéis ver las organizaciones que ceden sus equipos para el cálculo grid global, es decir, para que lo use quien quiera. Los usuarios particulares también pueden ceder sus recursos para estos cálculos, aunque para ello haya que cumplir un mínimo de requisitos. Si queréis información, mirad aquí.

Por cierto, para la transmisión de todos estos datos desde el CERN a los centros de procesamiento (los llamados Tier o proveedor) se usa una fibra óptica con un ancho de banda de 11 Gb/s que envía datos a los 11 principales centros de procesamiento de la red LCG, denominada LHCOPN.

Por último, un proyecto más colaborativo que éste que tiene mucho éxito es uno que contamos hace un tiempo en este blog, denominado el proyecto BOINC

Comparte:

Sígueme en redes:

descripción descripción descripción

En mi mesilla

Blog Archive