jueves, 16 de mayo de 2013

#36 Grandes Simulaciones de N Cuerpos

Estudiar la Estructura a Gran Escala no suele ser sencillo. Se necesita recolectar una gran cantidad de datos espectroscópicos de una gran cantidad de galaxias en miles de cúmulos y ademas, de esto intentar mapear el gas que reside en esas galaxias, tomar en consideración la energía oscura y la materia oscura, los grandes vacíos y también tomar en cuenta que no toda la materia que "brilla'' (materia bariónica) podrá verse. Esto último suele deberse a los llamados efectos de selección, que limitan el poder de los surveys (grandes misiones dedicadas exclusivamente al mapeo de regiones del cielo o cielo completo, o busqueda de un cierto tipo de objeto). Un ejemplo muy común de un efecto de selección es la magnitud máxima sobre la cual el nivel de ruido perjudicará una medida espectroscópica. Y esto provoca que el universo local este mejor mapeado que las regiones más distantes.

Una estrategia es darle la vuelta a la tortilla e intentar entender la Estructura a Gran Escala usando simulaciones por computadora. Es básicamente como jugar un videojuego, aunque en este caso solo somos capaces de controlar las condiciones iniciales, dejando correr el resto de lo que sucederá a su libre albedrío. Las constantes fundamentales de la cosmología (de los que ya alguna vez hable por aquí) deben ser elegidos cuidadosamente de los resultados de los más importantes surveys, ya que estas constantes definirán la física del "universo'' que nos planteamos crear. Dos simulaciones nos son especialmente interesantes, por su tamaño y poder para reproducir lo observado en la Estructura a Gran Escala. La primera de estas es la mítica simulación del "Millennium'', que fue la primera "gran" simulación de N cuerpos de la historia. La idea básica es comenzar con una gran cantidad de "cuerpos" (para Millennium fueron usadas ~10×10⁹ partículas) distribuidos al azar en una caja rectangular de 500 h Mpc (recordemos que 1 h Mpc ~ 3.2×10²² años luz), con una cierta masa por partícula (típicamente de 10⁹ masas solares, la masa de un gran cúmulo de estrellas o de una pequeña galaxia), los cuales se dejarán evolucionar, esto es, simplemente veremos como estas partículas empiezan a responder ante la fuerza de gravedad que sienten entre ellas. El problema de los N cuerpos debe ser resuelto numéricamente en una cantidad de pasos cuantizados tras los cuales cada partícula dentro de la caja se habrá movido una cierta distancia que depende de las interacciones que será capaz de cálcular la supercomputadora que podamos comprar. Las especificaciones de este experimento estan en Springel et al 2005 (el preprint puede ser descargado de forma gratuita aquí). La simulación del Millennium comienza en un tiempo z=127 y termina en z=0, lo cual es un lapso de 10 giga años que termina en nuestra época. La estructura final es desplegada en una hermosa película que asombró a todos en su momento. La podemos ver a continuación.



Mientras los años pasaban el poder computacional se incrementaba de acuerdo a la ley de Moore, permitiendo incrementar el número de cálculos (recordemos que Millennium necesitaba aproximadamente 10¹⁰ cálculos por paso). Tal es el caso que una nueva simulación con mayor resolución (una caja de 250 h Mpc) que permite determinar en mayor detalle la Estructura a Gran Escala, la simulación Bolshoi (del ruso "Grande'', Klypin et al. 2011). El número de partículas es menor, 8×10⁹, pero la cantidad de pasos en su evolución se ha incrementado en el 400%, esto es 400000 pasos para cada partícula entre z=80 a z=0. El resultado también es desplegado en la siguiente película.



Sin embargo, todo tiene un pero. En el caso de las grandes simulaciones, este es que lo que se simula no son galaxias ni estrellas, esto es, la materia que podemos ver, que en este blog llamaremos materia bariónica desde aquí en adelante. Desde hace mucho se sabe que la gran cantidad de materia del Universo se encuentra en forma de halos de materia oscura (de los que hemos hablado aquí y aquí ), que corresponde al 90 por ciento de toda la materia que existe en el Universo. Estas simulaciones no toman en cuenta la materia bariónica, de tal manera que lo que observamos en esas simulaciones, todos esos puntos luminosos, no representan realmente galaxias ni aglomeraciones de estrellas, sino partículas de materia oscura dentro de las cuales deberían de "vivir'' las galaxias. Estas partículas efectivamente tendrán que acoplarse con la materia bariónica en algún momento de la evolución si quieren describir el Universo. Pero con este tipo de simulaciones no podemos entender por ejemplo problemas de segregación o ambiente galáctico en cúmulos o en supercúmulos de galaxias. Una forma de atajar este problema es considerar funciones "semi-analíticas" que cambien las condiciones del ambiente para acercar las simulaciones un poco más a la realidad. Estas funciones deberán de asumir como el ambiente es modificado por la presión del gas y la radiación. En mi opinión, simular materia bariónica dentro de los halos de materia oscura es el próximo gran reto de las simulaciones de N-cuerpos. Después de todo, nosotros vivimos en una galaxia formada por materia bariónica, parte de la cual nosotros mismos estamos formados.

No hay comentarios:

Publicar un comentario