miércoles, 16 de octubre de 2013

#40 De dónde venimos y hacia dónde vamos. Parte I



Este artículo es en realidad parte de un ensayo, un intento de reflexionar sobre qué somos los seres humanos, cuál es nuestro papel dentro del enorme sistema que es el Universo, dentro del conjunto los seres vivos, ubicarnos en nuestra propia historia y tratar de comprender de dónde venimos y hacia dónde vamos, entender por qué somos como somos y por qué eventualmente deberemos abandonar la comodidad de nuestro planeta y colonizar la última frontera, el espacio, si queremos tener alguna posibilidad de sobrevivir a largo plazo. Iré publicando el resto del ensayo en partes. Les dejo con la primera.

Somos una especie exploradora. Desde que se tiene memoria han habido individuos que se han lanzado a lo desconocido sin garantías de éxito e incluso sabiendo que no había boleto de regreso. Nuestros ancestros abandonaron África hace decenas de miles de años y terminaron poblando casi toda la tierra firme, con excepción de la Antártida.

El explorador noruego  Roald Amundsen en 1911. Líder de la primera expedición de seres humanos que lograron llegar con éxito al polo sur geográfico. La Antártida, especialmente para la gente de la época, era un territorio frío, yermo, sin riquezas que explotar ni condiciones para vivir permanentemente y prosperar en ella. ¿Qué pudo impulsar a un puñado de humanos a aventurarse en el ambiente más inhóspito conocido a sabiendas de que habían muchas probabilidades de perder la vida en la empresa? (http://photoblog.nbcnews.com/_news/2011/12/14/9442843-roald-amundsens-south-pole-feat-remembered-100-years-on)


¿A qué se debe este fenómeno? Probablemente a muchas cosas, búsqueda de alimento, cambios climáticos, guerras e incluso simple curiosidad, fascinación por lo desconocido, saber qué hay detrás de la siguiente montaña. ¿Pero por qué hemos tenido tanto éxito en estos viajes a larga distancia? La respuesta, como tantas otras sobre la naturaleza humana, parece estar en la evolución y la genética, la naturaleza molecular de la vida.

Todos los seres vivos conocidos sobre la Tierra estamos emparentados, todos somos primos, todos descendemos de un único ancestro. Los árboles, las hormigas, los peces, los insectos, las bacterias, los humanos e incluso los virus (sean seres vivos o no) descendemos de un único antecesor, que los biólogos llaman LUCA (Último Antepasado Común Universal, por sus siglas en inglés).  ¿Qué era LUCA? Probablemente poco más que una cadena de nucleótidos, que son pequeñas moléculas orgánicas, y tal vez protegida por una membrana. Pero esa sencilla máquina molecular primitiva tenía algo especial, esa cadena de moléculas codificaba información según  el orden en que estas estuvieran colocadas. LUCA tenía la capacidad de codificar la receta de diferentes sustancias químicas, las proteínas que eventualmente formaban estructuras alrededor de esa cadena de nucleótidos. Pero lo más importante es que esta cadena de átomos, de moléculas, se replicaba, agarrando otras sustancias orgánicas y nucleótidos disueltos en el ambiente (probablemente agua), hacía copias de si misma, LUCA, una máquina química, se reproducía, como los seres vivos.

¿Cómo llego a ser posible esto? realmente por puro azar, los átomos responden a las fuerzas de los campos electromagnéticos de otros átomos y a la mecánica cuántica. Estas dos cosas determinan en última instancia cómo los átomos interaccionan unos con otros, cómo se atraen y se repelen, cómo forman enlaces entre si, dando origen a moléculas  y como se rompen estos enlaces, esto señoras y señores es la química. 

Dadas las condiciones de la Tierra primitiva, muy diferentes a las actuales y los ingredientes necesarios: sustancias orgánicas y agua provenientes de los muchos choques de cometas y meteoritos que sufrió la Tierra en sus inicios, el llamado caldo primordial, más descargas eléctricas de rayos y posiblemente algo de luz ultravioleta intensa emitida por el entonces también joven Sol, se formaron estas cadenas de nucleótidos que culminaron con la existencia de LUCA.

Representación artísitica de la Tierra primitiva en la que debió surgir LUCA. Un mundo muy diferente al actual con una atmósfera sin oxígeno apenas, y una enorme actividad volcánica. (http://www.astrobio.net/pressrelease/5438/the-power-behind-the-primordial-soup).


LUCA es hipotético, obviamente, nadie lo ha encontrado (y seguramente nunca ocurra) ni a él, ni a sus restos físicos. ¿Entonces cómo sabemos que existió? La respuesta es el código genético. El código genético es la forma, o el idioma  en que esa cadena de aminoácidos de LUCA contenía las instrucciones para fabricar las proteínas. Es un código muy simple, cuatro nuecleótidos, Adenina, Guanina, Citosina y Uracilo, formando una cadena conocida como Ácido Ribonucleico o ARN. Es la etapa de la historia de la vida que los biólogos llaman "mundo ARN".

 Eventualmente otro ancestro descendiente de LUCA mutó ligeramente su código genético y en lugar de Uracilo usó el aminoácido Timina, que químicamente es muy parecido al Uracilo, por tanto el código genético no se vio afectado, y dando lugar a un nuevo tipo de molécula conocida como Ácido Desoxirribonucleico o ADN la cual necesita mecanismos moleculares complejos para copiarse  si misma y que recurre al ARN para sintetizar proteínas, pero que es una forma mucho más segura de proteger la información de errores de copiado que el ARN en si. Actualmente todos los seres vivos conocidos usamos el ADN para almacenar nuestra información genética. Las proteínas son las sustancias principales que forman a los seres vivos, forman la estructura de la membrana celular, de todo nuestro cuerpo y además regulan las funciones fisiológicas, incluyendo las cognitivas y reproductivas. Somos proteína.

Representación cadenas de ARN (RNA) y ADN (DNA). Las cadenas de ADN se pueden organizar en forma de doble hélice, esto es dos cadenas complementarias que contienen la misma información genética para sintetizar proteinas, por tanto una forma más segura para proteger la información de los errores al copiarse que la del ARN, que solo tiene una cadena. A los lados de ambas se puede ver la representación química de los nucleótidos que las forman. El orden en que estos nucleótidos se organizan, da las instrucciones en de cómo se deben organizar los aminoácidos para sintetizar una proteína específica. (Tomado de Wikimedia Commons).




Es por ello que sabemos que todos los habitantes de este planeta provenimos de un único individuo de hace unos cuatro mil millones de años, todos compartimos el mismo código genético, todos los animales, hongos, plantas, bacterias y virus usamos el mismo conjunto de instrucciones para sintetizar nuestras proteínas. Todos somos parientes. Cuando algunas creencias mitológicas ancestrales (y no tanto) dicen que somos hermanos de los seres vivos, no podían imaginar la manera tan profunda y antigua en que esto es cierto.

Nuestro código genético no es el único que permiten las leyes de la física y la química, podría incluso estar basado en sustancias diferentes al carbono, como el silicio, y sin embargo, absolutamente toda la vida que conocemos comparte el mismo código genético, todos descendemos de LUCA. ¿Por qué? ¿Es posible que surgieran otras formas de vida basadas en otro código genético diferente al nuestro? Es posible, totalmente. ¿Por qué solo los descendientes de LUCA prevalecieron? La respuesta a esta pregunta se encuentra, probablemente en la famosa teoría de la evolución.

Lo cual será el tema de la siguiente entrada.


miércoles, 12 de junio de 2013

#39 Rincon del Friki: Star Trek, la gravedad y la Luna



Esta entrada será diferente a las otras, en vez de hablar de una noticia de actualidad científica, el Rincon del Friki tratará acerca de la buena pero sobretodo de la mala ciencia de series, peliculas y videojuegos. Así que hoy inauguramos nueva sección.

En una vieja entrada (aquí) ya comentaba como me fascina la ciencia ficción. Y si de ciencia ficción hablamos la serie por excelencia es Star Trek. ¿Qué tiene Star Trek que ha influenciado generaciones de, no solo frikis, si no ademas de científicos? Se trata de una franquicia que se toma la ciencia muy en serio,
una sociedad humana enfocada a la busqueda de la verdad científica, al descubrimiento del universo y las consecuencias que esto trae sobre la vida de nuestra especie. Me gusta mucho que nunca se demoniza la curiosidad (como suele pasar en muchas otras obras, p.e. Frankenstein), sino todo lo contrario. La ciencia salva a la Enterprise al final de todos los episodios, ya sea por un ingenioso plan de Scotty para invertir los generadores de flujo warp para sobrealimentar con energía a alguna pervertida criatura del espacio, algún plan de Spock para telestransportar contenedores modificados a la nave del villano de turno y hacerla explotar, ó el propio Kirk para crear una implosión en el espacio que los aleje de un agujero negro artificial creado originalmente para destruir algún importante planeta de la confederación. Y aunque a usted le parezca completamente descabellado cada uno de estos planes, que en gran pantalla parecen tan ingeniosos que no pueden fallar, la noción de que existe una "ciencia" (nuestra ciencia) apoyando a la tripulación más intrépida de la Galaxia es lo que ha acercado a miles de personas a descubrir la "verdadera" ciencia y convertirse científicos e ingenieros en el mundo real.

Dicha esta introducción, vamos a lo que vamos. En esta entrada hablaremos del punto débil de casi todas las películas que tratan de viajes espaciales: esto es la gravedad. La gravedad es una fuerza tan simple que mucha gente tiene nociones completamente equivocadas de ella. Ya alguna vez comenté (aquí) que Newton logró demostrar que una fuerza de la forma:


debería conducir a los objetos a trazar órbitas elípticas, del tipo que Kepler había descubierto que trazaban los planetas. Un objeto que se encuentra orbitando, en realidad está cayendo. Esto suena descabellado, la Luna no "cae" hacia la Tierra, podría pensar usted. Lo que pasa en estos casos es que la caída del objeto se ve afectada por la curvatura de la Tierra. Mirémoslo de esta forma, si usted lanza un objeto, una pelota por ejemplo, esta trazara una trayectoria parabólica. Mientras más fuerza utilice, el objeto llegara más lejos. Existe una velocidad de lanzamiento con la cual el objeto llegará tan lejos que al caer no encontrará el suelo, ya que al ser esférica la Tierra, la trayectoria de la parábola y la curvatura de nuestro planeta coincidirán. Entonces decimos que el objeto esta en órbita.

Tiro de un proyectil. Mientras mayor sea la velocidad de lanzamiento, más lejos llegará.



Después de una cierta velociad, el objeto llegará tan lejos que nunca terminara de caer debido a la curvatura de la Tierra
Si el objeto no está en órbita, entonces la fuerza de atracción gravitatoria provocará que el objeto "caiga", ahora si, de forma directa hacia la Tierra. Esto es lo que llamamos "caída libre". La genialidad de Newton fue descubrir que el movimiento orbital y la caída libre se regían por la misma ecuación, la ecuación de la gravitación universal de arriba. Esto es lo que pasa con la Enterprise cuando es atacada y obligada a salir de la velocidad warp en la nueva película de la franquicia: Into Darkness. La película nos da el dato más importante, la distancia a la Tierra (r en la ecuación de Newton). Si las lecturas de la nave no fallaban, esta distancia era de 273 000 km que es aproximadamente tres cuartas partes de la distancia que separa a la Tierra de la Luna (aunque la Luna se ve bastante más grande, pero de eso hablaremos en un momento). Debido al intenso ataque del USS Vengeance (la maligna nave del almirante Alexander Marcus) el generador warp de la Enterprise se desalinea y la nave pierde energía para contrarrestar la fuerza gravitatoria de la Tierra. La escena dura 10 minutos desde que los motores de sustento de la nave quedan inhabilitados y el capitán Kirk, en una frenética y emocionante carrera logra alinear el motor warp y salvar por pocos segundos a la Enterprise de estrellarse contra la Tierra. Para ese momento la nave ya se encuentra dentro de la atmósfera terrestre, y supongo yo a algunas pocas decenas de kilometros de la superficie. Claro, con un dramático desenlace para el heróico Kirk.


¿Qué tiene de malo esta escena si acabamos de decir que un objeto que no esta en orbita caera directamente contra la Tierra? Primero, la Enterprise no está en órbita, y esto es creíble porque la nave fue forzada (a punta de cañonazos) a salir de velocidad warp, sin darles oportunidad de "nivelar" los parámetros orbitales como la velocidad y altura deseada. Luego, cuando los motores se apagan, la nave simplemente cae. Esto es, estamos completamente seguros que la nave no esta en órbita. El problema surge de que a una altura de 273 000 km sobre la superficie, la aceleración de la gravedad que sabemos por nuestras clases de secundaria y preparatoria que tiene un valor de 9.8 m/s^2 sobre la superficie, es de 0.005 m/s^2 a esa altura, simplemente eso quiere decir que la nave apenas caería 30 km en una hora, y no los miles que lo separan de la Tierra. Claro, mientras más se acerca a la Tierra, la aceleración aumenta, así que habrá que tomar en cuenta el cambio de esta aceleración de acuerdo a la ecuación de Newton. En un ejercicio muy sano, he logrado generar la siguiente gráfica que nos muestra el tiempo que le toma en caer contra la distancia hacia la superficie. Este tiempo es menor si consideramos a la Luna (y en la peli, la Luna se ve muy cerca, a pesar que les separa una distancia de 100 000 km). La Luna ejercerá una fuerza que atraerá a la Enterprise en dirección contraria a la de la Tierra, pero al ser la masa de esta mayor, al final la fuerza de la Tierra ganará. La gráfica derecha ignora la Luna, mientras que la izquierda la considera.


En ambos casos los tiempos de caida libre son de 1.28 días para el sistema Tierra-Enterprise y 1.27 días considerando la Luna dentro de los calculos. Esto es más de un día completo para llegar al motor warp, ponerse un traje antiradiación y alinear el generador sin correr peligro a exposición peligrosa de la radiación. Esto me lleva a lo siguiente con lo que no estoy de acuerdo. Veamos la siguiente imagen con la distancia a escala entre la Tierra y la Luna:


Esto es a una distancia de 384 400 km, sin embargo la Enterprise se encontraba a 111 400 km, aproximadamente una cuarta parte de esta distancia hacia la Luna. A esta distancia la Luna se veía sumamente imponente a un costado de la nave, pero resulta que en realidad a esta distancia la Luna no se extendería más allá de dos grados en el cielo. Esto es el tamaño de una moneda si la extendiéramos a una distancia de un brazo con respecto a nosotros. Para poner en perspectiva, la Luna a nuestra distancia subtiende medio grado en el cielo. Si estuviéramos a la distancia de la Enterprise, solo se vería cuatro veces más grande, lo que es mucho mayor, pero no como para poder observarla tal y como aparece en la película.

Con esto me gustaría cerrar la entrada de hoy. No quiero dar la noción de que no me gustó la película. Como suele suceder, entender qué esta mal en una película nos enriquece como personas. Si en un principio no me hubiera interesado, no me habría preocupado por generar todos los cálculos. Como diría Spock, Larga y Próspera vida...

domingo, 26 de mayo de 2013

#38 Kepler RIP

Lo que sigue es un resumen de la noticia que puede leer por aquí.

Kepler es un telescopio espacial de 1.4 metros, cuyo principal objetivo es la búsqueda de planetas extrasolares a partir de las curvas de luz de las estrellas que observa (por ejemplo aquí). Este objetivo era logrado a través de un complejo sistema que permite al telescopio observar regiones con una gran precisión tanto en brillo como en posición. Para este fin contaba con sistemas de giroscopios que eran accionados por cuatro "ruedas" que orientaban al telescopio. Para su correcta orientación tres de las cuatro ruedas eran necesarias. En Julio del año pasado una de estas ruedas se dañó. La segunda rueda se dañó la semana pasada (escribo esto en 26/05/2013), por lo que la misión prácticamente se ha dado por perdida. Sin un sistema de giroscopios que orienten la nave, los científicos a cargo son incapaces de controlar la dirección en la cual apunta el telescopio. 

Las ruedas de la misión Kepler instaladas en la nave (en negro).

Curiosamente las ruedas del tipo que se han usado en esta misión han fallado en otras ocasiones, o han sido en algún punto poco fiables para ser usadas. "Reconocemos que las ruedas han tenido una historia bastante accidentada", dice William Borucki, científico espacial del Ames Research Center en Campo Moffett , California, y principal investigador de la misión Kepler. En 2001, las ruedas del Far Ultraviolet Spectroscopic Explorer de la NASA tuvieron un fallo semejante, mientras que la misión japonesa Hayabusa presento fallos en 2004 y 2005. El sistema de ruedas del TIMED (Thermosphere, Ionosphere, Mesosphere Energetics and Dynamics de la NASA) presento una experiencia similar en 2007, y la misión de la agencia Dawn sufrió fallos en 2010 y 2012.

Los ingenieros de la NASA tenían el conocimiento de los fallos en este tipo de ruedas antes de lanzar la misión Kepler al espacio, en 2007, como nos lo hace saber John Troeltzsch, ingeniero en jefe del programa Kepler de Ball Aerospace en Boulder, Colorado. "Nos dimos cuenta de cuán serio (era este problema) ha finales de 2007", nos dice. Para entonces la misión estaba a punto de lanzarse y resultaba inviable realizar ajustes para intentar corregir las fallas debido en parte al alto costo de estos y a que la misión ya se había pospuesto en dos ocasiones anteriores. A pesar de esto, las ruedas fueron re-examinadas y algunos ajustes de último minuto para evitar futuras complicaciones fueron realizados. Troeltzsch dijo, "La valoración fue que los cambios prevendrían la ocurrencia del tipo de problemas que habían sucedido en ocasiones pasadas".

Tras el fallo de las dos ruedas, capaces de llegar a entre 1000 y 4000 revoluciones por minuto, la nave ha entrado en "modo seguro", mientras el debate de cuáles deberían ser los pasos a seguir se abre. Por lo pronto, no parece viable una misión de rescate que reemplace las ruedas, con lo cual "La ciencia que estábamos haciendo con Kepler, tal y como la estábamos haciendo, ha acabado", nos dice Troeltzsch.

La gráfica muestra la el período de la órbita de los exoplanetas descubiertos por Kepler contra  su tamaño.

La misión Kepler inició en 2009, tuvo un costo de US$600 millones y lograba discernir una fluctuación en 10 partes por millón de la luz de una estrella para poder identificar eclipses debidos a planetas. Kepler descubrió más de 2700 candidatos a planetas extrasolares, mientras que confirmó 63 sistemas tanto en tamaño como en órbita. Se esperaba que la misión acabara en 2016.

miércoles, 22 de mayo de 2013

#37 El origen de las unidades de medida. (Parte III: La edad media.)

Continuamos nuestro viaje para conocer las unidades de medida que utilizamos para describir nuestro mundo y para darle sentido a tantas cosas en la vida, empezando por la economía. En Nicaragua al igual que en otras partes de América Latina, a pesar de los diversos esfuerzos de los gobiernos por estandarizar el uso del Sistema Internacional de unidades de medida (del cual hablaremos en una entrega futura) es común encontrarse con unidades de medida de un origen muy diverso. Encontramos unidades de medida del Sistema Internacional o sus derivadas como el litro en las botellas de bebidas y el centímetro (derivado del metro) conviviendo con unidades provenientes del Sistema Imperial (o Sistema Inglés) como la pulgada, la yarda, el galón, o la libra. Así mismo curiosamente también conservamos en uso unidades de medida de origen medieval europeo heredadas de la colonia española que en el mismo continente europeo han pasado al olvido desde el siglo XIX. En la entrada de hoy aprenderemos sobre este último interesante grupo.

Recreación de un mercado medieval en Óbidos, Portugal. (Foto: http://www.cuenta-atras.com/media/uploads/ImagenesOfertas/minhotour/obidos-cuenta-atras/)


En la edad media europea no existía una regulación general sobre las unidades de medida, pues como vimos en una entrega anterior, al caer el Imperio Romano se perdieron gran parte de las unidades de medida que se habían logrado estandarizar. En la Europa medieval (Y también se puede aplicar al Norte de África, Oriente Medio y Asia Occidental pues había intercambio comercial fluido entre todas estas regiones) cada ciudad (llamada también villa) tenía sus propios patrones que diferían de los de otras ciudades. Esto podía ser un gran problema para los comerciantes. Para ayudarles en su trabajo, a la entrada de cada ciudad y puerto comercial, y con más frecuencia en la plaza del mercado de la villa, en una pared solían haber a su disposición unas muestras de los patrones utilizados en dicha ciudad para que los usaran como referencia. Por ejemplo en esta foto vemos la vara, unidad de medida de longitud de la cual proviene la vara que utilizamos actualmente en Nicaragua. Esta de la fotografía corresponde a la utilizada en la villa de Jaca así como en todas las villas bajo su dominio o gobierno, en el antiguo reino de Aragón (actual España) . La de la fotografía se encuentra en la catedral de la villa.

Patrón de una vara medieval en una pared de la catedral de la villa de Jaca en España. (Foto: Wikimedia Commons)

Los comerciantes y los oficiales a cargo de velar que no se cometieran fraudes en los mercados realizaban copias en madera o metal de estas varas para poder darles uso práctico, como podemos ver en la siguiente figura. En este caso es una composición de dibujo sobre foto en la que se muestra al Almutafaz u oficial designado por el rey para vigilar el orden y legalidad de las transacciones en el mercado, comprobando que una vara de medir de un comerciante esté en acuerdo con el patrón de la villa, en este caso Sos del Rey Católico (que utilizaba también la vara jaquesa). Esa vara patrón en concreto fue tallada en el año 1339. (Más información aquí.)


Oficial Almutafaz comprobando la longitud de una vara de medir comercial.

Algunas veces tenían una definición procedente del uso militar, por ejemplo en ese caso una vara se definía como la distancia entre el centro del pecho y la mano con el brazo extendido y era aproximadamente la longitud de la flecha de un arquero.

También habían patrones para peso, volumen y lo que fuera necesario medir para el comercio. Por ejemplo junto a la vara de medir se colocaban balanzas y recipientes (cántaros, alcántaras) como representación de la unidad de volumen estándar. Sin embargo este sistema podía ser todo un dolor de cabeza ya que prácticamente, no cada reino, sino cada ciudad importante tenía sus patrones propios. En el caso de España y Portugal, los dos reinos principales que heredaron sus patrones de medida a América Latina, sus unidades (así como gran parte de muchos otros aspectos de su cultura) estaban muy influenciados por los utilizados por los árabes del norte de África, que ocuparon gran parte de la Península Ibérica durante la edad media. Esto se nota en el origen árabe del nombre de algunas de estas unidades como la "alcántara", la balanza árabe usada para medir pesos (en realidad masas), o el nombre mismo del oficial del mercado (Almutafaz). 

Imaginemos esta diversidad multiplicada por el número de ciudades que habían en toda Europa, Oriente Medio, Asia Occidental y el Norte de África. Hacía falta una estandarización. Si bien esta no de logró realmente hasta el siglo XIX con el Sistema Internacional, ya desde el renacimiento se hicieron grandes esfuerzos por lograrlo, aunque fuera a lo interno de cada reino o estado. 

Dibujo de Venecia (en la actual Italia) en el año 1500. Venecia llegó a ser uno de los puertos más importantes de Europa y el Mediterráneo durante la edad media, donde llegaban comerciantes desde lugares tan lejanos como China y la India a vender sus productos, lo que obligaba a los comerciantes venecianos a tener un buen dominio de los distintos sistemas de unidades de medida de la época. (Imágen: http://turquistan.wordpress.com/)


En este enlace tenemos una muestra de algunas de las unidades de medida medievales más comunes y su correspondencia aproximada en el Sistema internacional. (Recodemos que las medidas podían variar significativamente de una ciudad a otra).

Aquí hemos visto solo algunas unidades de ejemplo, pero la variedad de ellas a lo largo del mundo medieval era grande, tanto en definición como en valor. En la próxima entrega veremos como con el "descubrimiento" del nuevo mundo por parte de los navegantes europeos algunas de estas unidades medievales llegaron al continente americano y como a su vez las nuevas necesidades comerciales y militares dieron pie a que surgieran nuevas unidades.

jueves, 16 de mayo de 2013

#36 Grandes Simulaciones de N Cuerpos

Estudiar la Estructura a Gran Escala no suele ser sencillo. Se necesita recolectar una gran cantidad de datos espectroscópicos de una gran cantidad de galaxias en miles de cúmulos y ademas, de esto intentar mapear el gas que reside en esas galaxias, tomar en consideración la energía oscura y la materia oscura, los grandes vacíos y también tomar en cuenta que no toda la materia que "brilla'' (materia bariónica) podrá verse. Esto último suele deberse a los llamados efectos de selección, que limitan el poder de los surveys (grandes misiones dedicadas exclusivamente al mapeo de regiones del cielo o cielo completo, o busqueda de un cierto tipo de objeto). Un ejemplo muy común de un efecto de selección es la magnitud máxima sobre la cual el nivel de ruido perjudicará una medida espectroscópica. Y esto provoca que el universo local este mejor mapeado que las regiones más distantes.

Una estrategia es darle la vuelta a la tortilla e intentar entender la Estructura a Gran Escala usando simulaciones por computadora. Es básicamente como jugar un videojuego, aunque en este caso solo somos capaces de controlar las condiciones iniciales, dejando correr el resto de lo que sucederá a su libre albedrío. Las constantes fundamentales de la cosmología (de los que ya alguna vez hable por aquí) deben ser elegidos cuidadosamente de los resultados de los más importantes surveys, ya que estas constantes definirán la física del "universo'' que nos planteamos crear. Dos simulaciones nos son especialmente interesantes, por su tamaño y poder para reproducir lo observado en la Estructura a Gran Escala. La primera de estas es la mítica simulación del "Millennium'', que fue la primera "gran" simulación de N cuerpos de la historia. La idea básica es comenzar con una gran cantidad de "cuerpos" (para Millennium fueron usadas ~10×10⁹ partículas) distribuidos al azar en una caja rectangular de 500 h Mpc (recordemos que 1 h Mpc ~ 3.2×10²² años luz), con una cierta masa por partícula (típicamente de 10⁹ masas solares, la masa de un gran cúmulo de estrellas o de una pequeña galaxia), los cuales se dejarán evolucionar, esto es, simplemente veremos como estas partículas empiezan a responder ante la fuerza de gravedad que sienten entre ellas. El problema de los N cuerpos debe ser resuelto numéricamente en una cantidad de pasos cuantizados tras los cuales cada partícula dentro de la caja se habrá movido una cierta distancia que depende de las interacciones que será capaz de cálcular la supercomputadora que podamos comprar. Las especificaciones de este experimento estan en Springel et al 2005 (el preprint puede ser descargado de forma gratuita aquí). La simulación del Millennium comienza en un tiempo z=127 y termina en z=0, lo cual es un lapso de 10 giga años que termina en nuestra época. La estructura final es desplegada en una hermosa película que asombró a todos en su momento. La podemos ver a continuación.



Mientras los años pasaban el poder computacional se incrementaba de acuerdo a la ley de Moore, permitiendo incrementar el número de cálculos (recordemos que Millennium necesitaba aproximadamente 10¹⁰ cálculos por paso). Tal es el caso que una nueva simulación con mayor resolución (una caja de 250 h Mpc) que permite determinar en mayor detalle la Estructura a Gran Escala, la simulación Bolshoi (del ruso "Grande'', Klypin et al. 2011). El número de partículas es menor, 8×10⁹, pero la cantidad de pasos en su evolución se ha incrementado en el 400%, esto es 400000 pasos para cada partícula entre z=80 a z=0. El resultado también es desplegado en la siguiente película.



Sin embargo, todo tiene un pero. En el caso de las grandes simulaciones, este es que lo que se simula no son galaxias ni estrellas, esto es, la materia que podemos ver, que en este blog llamaremos materia bariónica desde aquí en adelante. Desde hace mucho se sabe que la gran cantidad de materia del Universo se encuentra en forma de halos de materia oscura (de los que hemos hablado aquí y aquí ), que corresponde al 90 por ciento de toda la materia que existe en el Universo. Estas simulaciones no toman en cuenta la materia bariónica, de tal manera que lo que observamos en esas simulaciones, todos esos puntos luminosos, no representan realmente galaxias ni aglomeraciones de estrellas, sino partículas de materia oscura dentro de las cuales deberían de "vivir'' las galaxias. Estas partículas efectivamente tendrán que acoplarse con la materia bariónica en algún momento de la evolución si quieren describir el Universo. Pero con este tipo de simulaciones no podemos entender por ejemplo problemas de segregación o ambiente galáctico en cúmulos o en supercúmulos de galaxias. Una forma de atajar este problema es considerar funciones "semi-analíticas" que cambien las condiciones del ambiente para acercar las simulaciones un poco más a la realidad. Estas funciones deberán de asumir como el ambiente es modificado por la presión del gas y la radiación. En mi opinión, simular materia bariónica dentro de los halos de materia oscura es el próximo gran reto de las simulaciones de N-cuerpos. Después de todo, nosotros vivimos en una galaxia formada por materia bariónica, parte de la cual nosotros mismos estamos formados.

viernes, 26 de abril de 2013

#35 Isaac Asimov: Ciencia y Belleza

Los que me conocen bien saben que soy un gran fanático de Isaac Asimov, así que simplemente no he logrado resistirme a colgar este video. Espero les agrade.. con el debido respeto del dueño del canal..


miércoles, 24 de abril de 2013

#34 Exoplanetas Terrestres descubiertos por Kepler

Ya ha pasado mucho tiempo desde que el Observatorio espacial Kepler vio luz por primera vez, y casi no pasa una semana sin que se sepa alguna noticia de este telescopio. Siempre noticias gratificantes. Hace un par de semanas se dio a conocer la noticia de que fueron encontrados dos sistemas, el sistema Kepler-62, que alberga por lo menos 5 planetas, dos de ellos del tamaño conocido como "supertierra", los planetas Kepler-62e y Kepler-62f; y el sistema Kepler-69 con al menos dos planetas, siendo Kepler-69c considerado como supertierra.

¿Qué es una supertierra? Básicamente cualquier planeta con un tamaño que se encuentra en el rango entre 1.25 a 2 veces el tamaño de nuestra Tierra. ¿Cómo detecta Kepler tales planetas? Los planetas fueron descubiertos a través de las curvas de luz de sus estrellas. La curva de luz es una herramienta que permite determinar cuándo la luz proveniente de la estrella se "eclipsa" debido al paso de un planeta delante de ella. A continuación vemos las curvas de luz para los planetas del sistema  Kepler-62.


A partir del tiempo de eclipsamiento se puede establecer un tamaño mínimo para los planetas en cuestión.

Encontrar planetas con tamaños comparables a la Tierra se está empezando a volver común, mas encontrar planetas en la región de habitabilidad de sus estrellas (región donde la temperatura alcanzada por la radiación emitida por la estrella puede hacer convivir al agua en sus tres estados de forma cómoda) y que estos planetas sean del tipo "rocoso" no es algo que se escuche de forma tan frecuente. Kepler-62e y f tienen  probablemente una composición rocosa, o como mínimo podrían estar cubiertos por agua en estado solido en la mayoría de su superficie. Claro que una cosa es vivir en la zona de habitabilidad, y la otra es que sea posible que pueda existir vida en tales cuerpos. La estrella Kepler-62 es en realidad pequeña y fría  (como lo describiría un astrónomo, una estrella K2), asi que la zona de habitabilidad está mucho más cerca de la estrella que en el sistema solar. El planeta Kepler-69c, que tiene un radio de 1.7 veces el tamaño del nuestro, se encuentra orbitando alrededor de una estrella del mismo tipo que el Sol, con una órbita de 242 días, lo cual podría llevarnos a pensar que se trata de un planeta con características similares a Venus. La noticia completa puede ser leída aquí.

Hoy por hoy no hemos encontrado ningún planeta que cumpla ambas condiciones: tener un tamaño comparable al de nuestra Tierra y orbitar en la zona de habitabilidad. Sin embargo hasta el momento Kepler ha confirmado ya 63 sistemas, tanto en los tamaños de sus planetas como en el tamaño de sus órbitas. Esta página nos muestra estos sistemas ya confirmados, la cual está muy interactiva.

jueves, 18 de abril de 2013

#33 Acerca de los primeros resultados del AMS

Existen dos maneras de medir los rayos cósmicos que nos llegan del espacio. Una manera indirecta, esperando observar qué efectos tienen los rayos cósmicos al interactuar con partículas de la atmósfera, y otra más bien directa, yendo al espacio y midiendo desde ahí. Elegir una u otra dependerá de la cantidad de dinero que seamos capaces de pasar por caja. Esto es, si no contamos con los millones necesarios, mejor nos quedamos en la Tierra e intentamos medir desde acá. Esto ya se hace, existe una veintena de proyectos de base tierra que miden la cantidad de rayos cósmicos mediante los "productos" que hacen su aparición en cascada cuando un rayo cósmico golpea la parte alta de la atmosfera. Por poner un ejemplo tenemos el Pierre Auger Observatory, que es un observatorio de rayos cósmicos ultra energéticos. La idea es tan simple como colocar contenedores de agua distribuidos de manera estratégica en algun área. Abajo la foto de uno de tales contenedores.




Si un rayo cósmico ha atravesado la atmósfera, lo más probable es que choque con alguna de las tropocientas moléculas que  la habitan (probablemente nitrogeno u oxigeno). Estas moléculas recibirán una enorme porción de energía y se desintegrarán en otras partículas que a su vez alcanzarán más moléculas que se encuentren por ahí. Esto provocará una cascada de partículas que en general cubren un gran área cuando alcanzan la superficie. De ahí la necesidad de cúbrir grandes áreas con tales contenedores para determinar que tipo de partícula inicio la cascada. Todavía más problematico aún es la necesidad de recurrir a modelos para estas cascadas que permitan discernir la partícula semilla. Esto como se imaginarán es algo que hace de este método "relativamente" barato (contenedores que detecten emisión Cherenkov por otro lado no son cosa de juego) bastante complejo.

Obviamente uno pensaría que si fueramos directamente al espacio, podríamos interceptar las partículas antes de que se desintegren en miles de millones en la atmósfera, lo que nos daría la ventaja de saber con precisión que nos esta llegando. Y si tenemos una estación espacial a nuestro servicio y millones de dolares del CERN y colaboradores internacionales, tenemos el plato servido. El Alpha Magnetic Spectrometer (AMS) instalado en la International Space Station (ISS) es un detector de rayos cósmicos (partículas cargadas ultra relativistas que suelen tener origen cósmico). La partícula de principal interés para esta misión es el positron. El positron es una partícula muy interesante, porque veas por donde lo veas, la falta de positrones es alarmante. El universo debería tener tantos positrones como electrones, pero esto no es así. La carencia de positrones es uno de los grandes misterios de la ciencia.


Aún con el desconocimiento de como desaparecio del Universo toda la antimateria "reliquia" del Big Bang, existen muchos otros procesos que crean antimateria continuamente. Medir el total común de la cantidad de positrones que nos llegan es la misión del AMS y podría dar claves de que paso con toda esa antimateria. La próxima figura es el resultado global de 18 meses de detección que indica la fracción de positrones a cada intervalo de energía. La curva tiende a decaer hacia un valor (~10 GeV), tras lo cual la emisión que nos llega del espacio aumenta hasta valores que no pueden determinarse todavía con la cantidad de datos observados hasta el momento.


El artículo técnico de recomendable lectura nos cuenta más en detalle. El exceso de la fracción de positrones no puede ser explicado a menos que se asuma un origen astrofísico no tomado en cuenta hasta ahora en los modelos o nueva física de partículas. Lo primero supone que no entendemos bien la física de los púlsares (estrellas colapsadas que soportan su gravedad únicamente por el principio de exclusión de Pauli, que contienen toda su masa en un volumen esférico de solo algunas decenas de kilómetros y que rotan sobre si mismas a tal velocidad que son capaces de completar una vuelta sobre su eje en fracciones de segundos). Si este es el origen del exceso de positrones que nos llegan, en los próximos años y segun se vayan completando los datos, la curva decaerá a altas energías. De no hacerlo, y esta es la noticia que tiene emocionado a todo el mundo, la mejor hipótesis será recurrir a la aniquilación de materia oscura en el halo de la galaxia. Podemos leerlo aquí, donde se darán detalles acerca del tema.

La matería oscura ya ha pasado por este blog antes. Representa una piedra en el zapato para la astronomía y la física por igual. Siempre escapa a todas las observaciones, perdiéndose de manera misteriosa y evadiendo nuestros esfuerzos más hercúleos por encontrarla. Desde hace mucho se asume que esta sería una clase de partícula que solo sea afectada por la fuerza de gravedad. Esto evitaría que emitiera fotones, y por lo tanto seriamos ciegos a ella. Sin embargo, finalmente podría estar empezando a deslizarse la cortina que nos impide verla. Los positrones actuarían como nuestra luz, y el AMS sería nuestros ojos. Ojos para ver materia oscura. Pero todavía no cantemos victoria...

lunes, 8 de abril de 2013

#32 Resumen acerca de los resultados de Planck

Mucho se ha dicho acerca de los resultados del Observatorio Espacial Planck. Pero como suele suceder, mucho de lo que se dice no es ni fácil de digerir si no tenemos algunas nociones básicas de cosmología y cómo se realizan las mediciones de los parámetros cosmológicos. Así que esta entrada quiero dedicarla a explicar que mide Planck y como interpretamos los resultados que podemos leer en la treintena de artículos que esperan ser publicados hasta el momento (que pueden ser descargados de forma gratuita aquí).

Dicho esto, Planck es un Observatorio de medidas cosmológicas. La medida cosmológica más importante es la del espectro de cuerpo negro del CMB (del que ya hable un poco por aquí). Si medimos la temperatura del espectro en cada punto del cielo obtendremos un mapeado de las anisotropías del CMB. Ese mapeado ya fue fabricado antes, por el Observatorio Espacial COBE:


y después por el WMAP:


Esto es, Planck es el Observatorio Cosmológico de tercera generación. El mapa de las anisotropías de la temperatura obtenido por Planck es el siguiente:



¿Que se obtiene de este mapeado? No es sencillo explicarlo, sin embargo el modelo estándar de la cosmología reza que la temperatura al tiempo de la recombinación (la primera vez que en el Universo aparecieron átomos) tendría que tener anisotropías de origen cuántico, que llevarían al universo a ser lo que es hoy. Estas fluctuaciones (que rondan aproximadamente entre ±0.0005 K) deben ser medidas con gran resolución para identificar diferentes regiones en el universo primigenio, y de ellas podemos derivar los parámetros cosmológicos primordiales, esto es, la fracción de energía del universo, la fracción de materia, la fracción de radiación y la curvatura misma del universo (de lo que ya hable un poco por aquí).

¿Cómo obtenemos estos parámetros? Construyendo un "Espectro de Potencias". El espectro de potencias es un indicador estadístico del grado de "agrupación" de las estructuras a diferentes escalas. Veámoslo de esta manera, las personas primero se agrupan (o viven) en pueblos o ciudades (grandes o pequeñas). Algunas preferirán vivir solas apartadas de la civilización, pero en general la gente prefiere vivir en compañia de otras personas. Luego, las ciudades y pueblos se agrupan en provincias, estados o departamentos (que los llamarás dependiendo del país donde habites). Estas provincias, estados o departamentos a su vez los agrupamos en naciones, y las naciones se encuentran en continentes, los cuales serían los últimos tramos de la escala. Si pudieramos hacer un espectro de potencias de las organizaciones humanas cada una de estas agrupaciones (pueblos ó ciudades, provincias, estados ó departamentos, naciones y continentes) representaría un pico en el espectro. El espectro de potencias obtenido por Planck es el siguiente:


Cada máximo del espectro representa agrupaciones en las anisotropías del CMB a diferentes escalas. El siguiente video nos muestra como se genera el espectro tomando en cuenta las diferentes escalas del mapa del CMB de Planck:


El máximo principal representa las primeras aglomeraciones de materia en el universo primigenio, mientras que los máximos secundarios (llamados modos secundarios) son normalmente asociados con las "Oscilaciones Acústicas Bariónicas" (Baryon Acoustic Oscilations, ó BAOs), ligadas a la materia oscura de la que hablaremos en futuras entradas.

Entrados a esto, la distribución de las anisotropías del CMB debe de depender de las constantes cosmológicas que deben de poder derivarse del ajuste del espectro. El mejor ajuste (realizado con un 68% de confiabilidad) revela que la constante de Hubble, el parámetro cosmológico más importante, es H_0 = 67.4±1.2 km s-1 Mpc-1, mientras que el parámetro de materia (siendo la mayor parte de ella materia oscura) es de Ω_m = 0.315±0.017, el parámetro de energía oscura es Ω_Λ = 0.686±0.020 y el parámetro de curvatura del universo es por tanto Ω_κ = -0.001±0.037, que implica practicamente que κ = 1, un universo plano.

No todo son rosas, la constante de Hubble obtenida por Planck nos trae un valor bastante más bajo que los medidos por surveys externos y por las medidas de las supernovas (Reiss et al., 2011), con H_0 = 73.8±2.4 km s-1 Mpc-1, ó el predecesor WMAP-9 (Hinshaw et al., 2012) con H_0 = 70.0±2.2 km s-1 Mpc-1. Gajes de la ciencia, prometo mantenerles informados de como se resuelve esta discrepancia, si es que lo hace.

Finalmente, tal vez la única nota del Planck que realmente signifique nueva ciencia (ya que los predecesores de Planck habían medido todos los parámetros mencionados anteriormente) es el acuerdo en 6 sigmas con respecto a la existencia de un período inflacionario, un momento del universo donde la razón de la expansión fue increíblemente mayor que en cualquier otra era. ¿Por qué sucedio la era inflacionaria? Nadie lo sabe. ¿Es seguro ahora afirmar que ocurrió tal época? No, todavía deberán de rechazarse (o verificarse) otras hipótesis. ¿Por qué pensamos que ocurrió tal evento cósmico? Lo explicaré en futuras entradas, por el momento espero que el presente nos ponga al corriente de qué midió Plank y nos acerce más a comprender como se construye la ciencia de la cosmología observacional.

miércoles, 3 de abril de 2013

#31 El origen de las unidades de medida. (ParteII: Las primeras unidades de medida.)

En la anterior entrega de esta serie aprendimos algunas de palabras que designan grandes números y los errores que comunmente se cometen al utilizarlos. En esta ocasión entraremos en materia para hablar de las primeras unidades de medida.

El uso de las primeras unidades de medida se pierde en el tiempo, pero se cree que surgió como una necesidad de comunicar a  otros miembros de la comunidad información referente a distancias y a tiempo. Por ejemplo la distancia que es necesario recorrer para encontrar una fuente de agua o una presa de caza, o el tiempo transcurrido entre estaciones o temporadas de caza o recolección de determinados alimentos. Obviamente la primera unidad de tiempo utilizada fué el día, marcado por el paso del  Sol, y el mes, marcado por las fases de la Luna. De la misma forma las distancias largas se medían en días de camino necesarios para alcanzar un determinado lugar. Así pues, fue probablemente la astronomía la más antigua de todas las ciencias que dio a la humanidad la posibilidad de medir y cuantificar su entorno.

Las fases de la Luna fueron una de las primeras unidades utilizadas por nuestros ancestros para medir el tiempo. (Foto: Observatorio Astronómico de la UNAN-Managua).
Así cuando notaron que la sucesión de las estaciones coincidía con la salida y puesta del Sol por determinados puntos del horizonte nació el concepto de año. Los registros  más antiguos del uso de la astronomía para medir el tiempo datan de hace 3600 años. Se trata del famoso Disco de Nebra,  un disco de bronce elaborado un pueblo prehistórico que habitó una región de Alemania durante la Edad del Bronce y la Edad del Hierro. En este disco están representadas estrellas, el Sol, la Luna y están marcados los lugares en el horizonte por donde se ponía el Sol en los Solsticios y los equicoccios, señalando así el comienzo de las estaciones. El disco fue utilizado durante aproximadamente mil años hasta la Edad del Hierro (se desconoce si por el mismo pueblo que lo construyó originalmente) y fue modificado en al menos cuatro ocasiones para reflejar los conocimientos que tenían los usuarios del momento. Fue encontrado en una colina utilizada para rituales religiosos durante la Edad del Hierro.

El Disco de Nebra, de 3600 años de antigüedad, muestra que ya en la Edad del Bronce se utilizaban instrumentos astronómicos para medir el tiempo. (Foto: Wikimedia Commons)


Pero no creamos que esto fue exclusivo de los humanos, sabemos que hay animales que utilizan también sus propias unidades de medida para transmitir información sobre alimentos a otros miembros de su especie, como las abejas, que tienen un lenguaje matemático para indicar distancias y rutas sorprendentemente desarrollado.

Conforme las habilidades tecnológicas de los humanos se fueron desarrollando, especialmente con la necesidad de intercambiar bienes y mercancías y de ordenar la tierra para la agricultura, surgió la necesidad de establecer unidades de media variadas para diferentes magnitudes físicas y aplicaciones. 

En un principio, de forma natural se empezaron a usar partes del cuerpo humano o su movimiento como unidades de medida, así nacieron los pasos para medir distancias cortas. Pero pronto fueron necesarias unidades más precisas. Hace 2600 años los babilonios y los egipcios utilizaban ya el cúbito como unidad de longitud. El cúbito, también llamado codo era la distancia del antebrazo desde el codo hasta la punta del dedo medio. Los romanos definieron el pie como dos  tercios de un cúbito y así esta unidad se extendió por todo el imperio, siendo una de las pocas que han sobrevivido hasta hoy, ya que la mayoría de las bien definidas unidades de medida romanas entraron en desuso al caer el imperio.

En la mitología Judeo-Cristiana, Dios le da instrucciones a Noé para construir el arca,  y las medidas  le son especificadas  en cúbitos, lo que muestra la influencia  de egipcios y babilonios en la cultura hebrea de la época.

Para medir volúmenes de forma pragmática se utilizaron los recipientes en que se almacenaban como unidades de volúmen. Esto variaba según se midiera el volúmen de líquidos o de sólidos. Por ejemplo para comerciar se utilizaban ánforas para el vino o toneles para la cerveza. Así aun hoy en dia utilizamos unidades de volúmen como la taza o la cucharada para nuestras recetas de cocina o el barril para los combustibles líquidos. 

Muy pronto surgió la necesidad de estandarizar estas unidades de forma precisa para el comercio por lo que surgieron los patrones de las unidades de medida, pero esto es un tema  que dejaremos para la siguiente entrega.

lunes, 25 de marzo de 2013

#30 Pequeño editorial acerca del escepticismo.

 

Yo solía ver los Expedientes Secretos X... es más, lo disfrutaba. Era una buena serie, tenía episodios sino fascinantes, mínimo interesantes, que te obligaban a quedarte hasta el final. El guión era tremendo, las conversaciones entre Moulder y Scully legendarias e inteligentes, los argumentos eran siempre frescos y la imaginación volaba por todos lados. Soy de los que admitó que Expedientes Secretos X dejó un vacío televisivo que ha sido difícil de llenar. Pero también admito que mucho del argumento principal de la trama era el debate entre el escepticismo y la credulidad. Cada episodio contenía una fuerte discusión acerca de la naturaleza de los casos, y en cada una de ellas, el creyente encarnado por el inteligente Fox Moulder se sobreponía encima de las hipótesis de la no menos astuta pero si más ingenua, Dana Scully. Y no fue sino despues de varios años que un amigo me hizo notar que Expedientes Secretos X favorecía siempre un punto de vista mágico, conspiranoico o, peor aun, pseudocientifíco. ¿Y saben qué? Es completamente cierto. Los Expedientes Secretos X son el sueño de cualquier ufólogo, chamanista, espiritista, u otro charlatán, por que la respuesta correcta, la que resolverá el caso que se nos planteó en los primeros 5 minutos, y de la que se darán pruebas en los 40 minutos restantes sin lugar a alguna interpretación más terrenal de los hechos, será la de lo sobrenatural, lo oculto, lo que la ciencia no puede explicar y por ende tenemos que recurrir a fuerzas antiguas que gobernaban la humanidad antes de ser desplazadas por modernos pero secos é insípidos conocimientos cientifícos. 

Y la verdad no tengo grandes problemas con eso. Hoy en día disfruto mucho de las historias que no tengan que inventar fuerzas mistícas para dar resolución a la trama, pero también disfruto de LOST, The Walking Dead, El Señor de los Anillos y otras tantas que me piden creer en cosas ajenas al sentido común. Detesto las concepciones religiosas, pero leer la balada de los Valars fue uno de los momentos más épicos de mi juventud. No creo en fantasmas ni espirítus, pero disfruté completamente de Avatar: Legend of Ang y su interpretación pseudo mágica del orden del universo. Al final del día se que es una historia que tiene incluso una moraleja, pero que no son guías para interpretar el mundo. El mundo es mucho más complejo, llegar a la respuesta correcta depende de más que solo creer o tener fe en una línea de pensamiento, se necesita mucho esfuerzo para comprender, mucha meditación, pero más importante, seguir un camino de escepticísmo, incluso hacia la respuesta que todo mundo acepta como correcta. 

Y es que las fuerzas ocultas que explicaban el mundo cuando la humanidad era joven han sido desplazadas por algo mucho más robusto, principios naturales que nada tienen que ver con lo que nosotros queramos, si no que estan ahí por que son más que nosotros mismos, pero sin dejar de ser parte de nosotros a la vez. Pensar que no existen los fantasmas talvez abre la puerta a dudas, complejos y miedos acerca de la muerte, pero entender como cada célula de nuestro cerebro interpreta el mundo a tráves de corrientes eléctricas impulsadas por moléculas de carbono y nos hace ser nosotros, sin necesidad de alma, de espíritus y de escencias divinas, es que es algo que te quita el aliento. Y no es que pensemos que somos un cerebro, un corazón, ó un conjunto de órganos, no es que creamos que el mundo no tiene cabida para la magia. Claro que lo tiene, el lugar son esas historias que nos transmiten a tráves de ellas moralejas acerca del valor y la honestidad. Pero también aceptar que son solo eso, historias, que Moulder nunca resolvió un caso en realidad y que de estar nosotros en su situación, lo aplastantemente más probable es que la respuesta de Scully sea la correcta y la que resuelva el caso. Por que en el mundo en el que vivimos ella tendría la razón ya que no cree, pide evidencias. Y de no encontrarlas asume la hipótesis más sencilla, la que esta de acuerdo con ese humano que salío de las cavernas y vio en la oscuridad de la noche, no fantasmas ni dioses, si no un mundo que necesitaba ser comprendido. Y es que no es malo temer a la oscuridad, lo malo es caer en ella...

domingo, 17 de marzo de 2013

#29 Nueva serie: El origen de las unidades de medida (parte I: Los grandes números).

  Después de mucha inactividad debido principalmente a compromisos académicos, hemos decidido volver a embarcarnos en la aventura de escribir este blog de divulgación, para lo que estamos preparando una serie de artículos que esperamos puedan disfrutar y compensar en parte el abandono en que teníamos este proyecto.

  Este es el primer artículo de una serie dedicada a buscar el origen de las unidades de medida que utilizamos a diario sin reparar normalmente en su origen y en su definción. En Nicaragua tenemos un caso interesante en el que cotidianamente se mezclan unidades de medida de diversos sistemas con origenes muy variados, algunos ya obsoletos. Pero esta primera entrada la dedicaremos a los números. ¿Cómo llamamos a los números muy grandes? ¿Sabés cuál es la diferencia entre un millardo, un millón, un billón y un trillón? Los nombres de estas cantidades suelen dar origen a mucha confusión y en este artículo intentaremos esclarecer cúal es la manera correcta de llamarlos.

  En el ámbito científico por lo general no hay estos problemas ya que para nombrar a los números grandes se usa la "notación científica": Los números de cien en adelante se escriben como múltiplos de potencias de diez. Por ejemplo 100 es lo mismo que 10 x 10, osea 10², que se lee como "diez al cuadrado". El superíndice llamado exponente nos indica cuantas veces tenemos que multiplicar el número por si mismo, en este caso dos. Así:

1000 = 10 x 10 x10 = 10³ que se lee "diez (elevado) al cubo".
10 000 = 10 x 10 x 10 x 10 = 10⁴ que se lee "diez (elevado) a la cuarta potencia".
100 000 = 10 x 10 x 10 x10 x 10= 10⁵ que se lee "diez (elevado) a la quinta potencia".
1 000 000 = 10 x 10 x 10 x 10 x10 x10 =10⁶ que se lee "diez (elevado) a la sexta potencia"

  Y así sucesivamente. Como se puede notar, el número de la potencia (exponente) es también el número de ceros detrás del uno. Normalmente a la hora de nombrarlos informalmente se abrevian como "diez al cubo", "diez a la cuarta" e incluso  comunmente "diez a la cuatro", "diez a la seis", etc. Pero si queremos escribir otros números como por ejemplo 200, solo necesitamos factorizarlos como un número multiplicado por múltiplos de diez, por ejemplo:

200 = 2 x 10²
5 000 = 5 x 10³
47 000 = 4,7 x 10⁴

  Sin embargo, fuera del ámbito científico y técnico, esta nomenclatura no se utiliza y en su lugar usamos palabras para nombrar los números muy grandes. El problema es que debido a que las mismas palabras se utilizan en diferentes lugares para referirse a diferentes cantidades tienden a surgir confusiones, en especial cuando se traducen artículos en inglés al español en los medios de comunicación. Esto es porque la mayoría de los paises de habla inglesa suelen usar el llamado sistema corto de origen estadounidense y los hispanohablantes usamos el sistema largo de origen europeo.


  En el sistema largo asignamos los nombres basados en potencias de millones. Osea cuando tenemos un millón de millones ( 1 000 000 000 000 = 1 000 000²) le llamamos "Billón", cuando temos un millón de millones de millones (1 000 000 000 000 000 000 =  1 000 000³) le llamamos "Trillón" y así sucesivamente lo que sigue una lógica clara en la que el exponente nos indica la raíz del nombre. También en el sistema largo existen unidades intermedias entre estos valores, aunque están cayendo en desuso, por ejemplo a mil millones (1 000 000 000) le llamamos "Millardo" y a mil millones de millones "Billardo", etc.

  El sistema corto también llamado estadounidense, esta basado en potencias de mil, por lo que 1000² es un Millón, 1000³ es un Billón, 1000⁴ es un trillón. etc. En este caso (como veremos en otros artículos muy común en los sistemas de unidades inglesas)  la relación entre el exponente y la raíz del nombre no existe y puede tender a confusión. En la siguiente tabla podemos ver una comparación para algunos de estos números entre los dos sistemas y sus respectivos sistemas de potenciación, incluyendo la notación científica de base 10:



  Así debemos tener cuidado al leer artículos traducidos del inglés en que el traductor suele mucho caer en el error de traducir el "Billion" estadounidense como "Billón" en español, cuando lo correcto es traducirlo como "Millardo". En los textos de divulgación sobre astronomía por ejemplo ocurre mucho que como la edad del universo son trece mil setecientos millones de años, es incorrectamente traducido al español como "13,7 billones de años" pues es la nomenclatura del sistema corto estadounidense en que se escribió el texto originalmente, lo correcto es usar el sistema largo y escribir "13,7 millardos de años".

  Para terminar, unos datos curiosos, el Reino Unido había usado tradicionalmente el sistema largo europeo, pero en 1974 se adoptó oficialmente el sistema corto. Así aun hoy en día hay mucha gente que por costumbre continua usando el sistema largo y conviven ambos. Otro ejemplo es Canadá, donde se hablan dos idiomas oficiales. Cuando utilizan el idioma francés, los canadienses deben utilizar el sistema largo mientras que cuando usan el idioma inglés deben usar el sistema corto.

  Un caso aun más curioso ocurre en Grecia, donde nacieron las raíces de estos nombres. Se usa un sistema propio relacionado al sistema corto, pero con otros nombres y otras bases. En griego Millón literalmente signfica "Mil grande" por lo que esa palabra no se usa. En su lugar utilizan la miríada para decir diez mil, así un millón se dice "cien miríadas" y un millardo "bi cien miríadas" y un billón "tri cien miríadas" y así sucesivamente.

  Espero que hayan disfrutado con este artículo, pronto estremos subiendo más de esta serie y de otros temas.   Como siempre pueden dejar comentarios y opiniones.