sábado, 24 de septiembre de 2016

Orígenes.La vida. Capítulo 3 - Química prebiótica.

Hola a todos.

Antes de empezar, GRACIAS A TODOS.

Gracias porque esto de #TertuliasCiencia me parece algo GENIAL y… #TertuliasCiencia no sería posible sin vosotros. GRACIAS

Y ahora al asunto.

Lo primero. ¡Me ha encantado el capítulo! Me ha encantado porque me ha hecho recordar lo bella que es la química, me ha recordado esos tres años de química orgánica que cursé en la Universidad.
Pero ¡me ha costado! Me ha costado porque existe cantidad de terminología bioquímica que no manejo con soltura y al final me lía un poco (¡o un mucho!).

He de decir que, conforme leía, me imaginaba átomos unidos en movimiento y moléculas que evolucionan choque tras choque. Las continuas referencias a la temperatura me informaban de lo deprisa o de lo lentos que se estaban moviendo los reactivos.
Cuando el autor hablaba de que no tenía la suficiente energía para producirse un producto a una determinada temperatura y de que a temperaturas más altas ya no era estable… yo me imaginaba choques no efectivos que dejaban los átomos unidos como estaban, quedándose la molécula inalterada; y también me imaginaba como a alta temperatura el movimiento excesivo hacía que, si se producía una determinada molécula, esta se rompiera.
Cuando hablaba de los catalizadores, yo me imaginaba que los reactivos eran “cazados” por estas especies (“forzándolas” a orientarse de una manera adecuada que facilitará los choques), o que estos generaban otros intermedios de  reacción, o…
Cuando hablaba de rendimientos, yo veía millones y millones de moléculas de unas mismas sustancias chocando entre sí, generándose en algunos de esos choques las moléculas buscadas, pero también apareciendo muchas otras.

Quizás el autor no pretendiera generar esas sensaciones en el lector, pero yo es lo que he “sentido/imaginado”. Pienso que el autor ha redactado francamente bien este capítulo, y lo creo porque me ha resuelto dudas y me ha hecho darme cuenta de cosas que desconocía. Me explico.

Yo no entendía muy bien cómo podían sobrevivir, las sustancias químicas formadas en el espacio, a la entrada en la atmósfera. Pero esa parte del texto me ha parecido genial. Conforme leía, unas dudas me eran contestadas pero me surgían nuevas dudas. En la frase siguiente esa duda era contestada pero… Esto me ha pasado en varias ocasiones. Bravo por el autor.

Por otro lado sabía que la vida era de “derechas o de izquierdas” y que en condiciones químicas normales de laboratorio o industria no fabricamos solo de un tipo, sintetizamos mezclas racémicas. Pero no había pensado que eso era algo disonante y difícil de analizar desde el punto de vista de la evolución “de prebiótica a bioquímica”. Me ha encantado averiguarlo.

Y ahora el resumen.

Al comenzar el capítulo nos recuerda como era la Tierra primitiva.
Muy pronto se empezaron a acumular las moléculas de donde surgiría la química prebiótica. Se cree que desde hace 3850 Ma existen condiciones geofísicas y geoquímicas para que empezarán síntesis más complejas a partir de esas primeras moléculas (H2O, CO2, NH3, H2, N2, CH4, CO, H2S…).
Existió antes un periodo que podría haberlas creado (entre hace 4400 Ma y 4000 Ma) pero no hay evidencias de que ocurriera. Además entre hace 4000 Ma y 3850 Ma hubo un bombardeo masivo de meteoritos y núcleos de cometas que pudo haber esterilizado, o incluso introducido moléculas orgánicas desde el espacio (un cálculo del 1992 estima que cayó en esa época más materia orgánica del espacio en la Tierra de la que existe en la actualidad).
Lo dicho, se cree que la química prebiótica empezó hace unos 3850 Ma.

Continúa hablándonos de Miller y de Oró.
El experimento de Miller fue revolucionario (publicado en Science en 1953). Sintetizó materia orgánica compleja (incluyendo algunos aminoácidos, los constituyentes de las proteínas) partiendo de los componentes que se suponía que había en esa Tierra primigenia. En la actualidad se han mejorado los experimentos “tipo Miller” y se han sintetizado multitud de aminoácidos, pero dependen mucho de las condiciones de partida (son muy dependientes por ejemplo del tipo de atmósfera que se supone que habría).
Los experimentos de Oró en 1959 (bioquímico nacido en Lleida) también fueron revolucionarios. Yo los desconocía totalmente, así como también desconocía la “guerra fría” que surgió entre los dos modelos que fueron propuestos apoyándose en dichos experimentos. Oró sintetizó una base nitrogenada (constituyente principal de los nucleótidos, que a su vez cuando se unen forman el ADN y el ARN).
El autor nos cuenta que Muller (norteamericano) presentó un modelo de “nacimiento de la vida” a partir de una cadena de ADN que empezó a realizar funciones típicas de la vida: replicación, mutabilidad y metabolismo. También nos dice que Oparin (ruso) lanzó otro modelo para “contraatacar” el modelo norteamericano. El modelo ruso era igual de simple que el anterior, se basada en que se formaron proteínas y estas catalizaron la síntesis de ácidos nucleicos. En los tiempos de la Guerra Fría todo estaba polarizado. Durante años se enfrentaron ambos modelos, pero en la actualidad toda esta simplicidad está superada.

Después nos comenta la hipótesis de panspermia.
El caso es que en 1969 cayó un meteorito de la familia de las condritas carbonáceas que revolucionó el panorama. En estos meteoritos aguantan casi intactos en su interior las moléculas orgánicas que transportan y, tras su análisis y otros muchos estudios y cálculos (uno ya lo he comentado antes), tomo fuerza el pensamiento de que mucha materia orgánica compleja pudo venir del espacio (incluso algunos afirman que también microorganismos o esporas pudieron venir, pero esa hipótesis no se mantiene por ninguna prueba en la actualidad y la gran mayoría de los investigadores de este tema la desechan).

Luego nos habla de los aminoácidos zurdos y los nucleótidos diestros.
Nunca había pensado que esto es algo difícil de hacer encajar en la química prebiótica, pero cuando lo he leído no me ha sorprendido.
Como dije al principio, en los entornos físico-químicos abióticos lo normal son las mezclas racémicas. Incluso en los meteoritos se han encontrado de los dos tipos (pero en las condritas carbonáceas si que hay un exceso de uno de los tipos… curioso ¿no?).
Para solucionar este problema se han propuesto dos modelos: el biótico y el abiótico. El biótico nos dice el autor que es inconsistente porque debería de haber biopolímeros funcionales homoquirales que generarán la homoquiralidad y que rompieran la mezcla racémica. El abiótico es más consistente y se están buscando mecanismos físico-químicos que lo hagan posible; algunos de estos mecanismos se basan en la destrucción de uno de los quirales y otros se basan en el azar (azar al principio, por ejemplo que saliera un exceso de uno y desde esa primera formación, mediante mecanismos bioquímicos posteriores, fuera progresando esa opción).
Dentro de este apartado, el autor se pregunta ¿cómo aumentaría nuestro conocimiento si encontráramos vida en otra parte del Universo y analizáramos su quiralidad?

Para terminar nos habla de los avances en la química prebiótica.

· En la actualidad, mediante experimentos a partir de las moléculas simples que se supone que había, se han sintetizado prácticamente todos los bio-monómeros. En ocasiones se han utilizado como catalizadores algunas moléculas orgánicas, compuestos organometálicos e incluso catalizadores inorgánicos presentes en rocas.

· Muchos de los aminoácidos son bastante fáciles de generar. Pero el enlace entre aminoácidos (para sintetizar así proteínas) es bastante difícil en el agua, Sin embargo en medios distintos de “solamente agua” si se ha conseguido (se han buscado entornos locales sin agua: superficies catalizadoras inorgánicas, interfases agua-bicapas lipídicas…).

· Por otro lado, para sintetizar el ADN y el ARN son necesarios los nucleótidos (el ADN y el ARN son secuencias de nucleótidos). Los nucleótidos están formados por la unión de un grupo fosfato, de la desoxiribosa (ADN) o la ribosa (ARN) y de una base nitrogenada. Pues para sintetizar los nucleótidos se tuvieron problemas cuando se intentaron generar sus tres constituyentes y luego unirlos (problemas con la ribosa, problemas con la existencia del grupo fosfato… pero sobre todo problemas para unirlos adecuadamente en medios abióticos). En el 2009 el panorama cambió porque se generó un nucleótido sin pasar por los estados intermedios de ribosa y base nitrogenada.
Por cierto, cuando se han sintetizado las bases nitrogenadas en condiciones abióticas aparecen muchas más de las que tienen los seres vivos. Por ello algunos piensan que el “código genético inicial” pudo contener más letras, y que ahora solo quedan las más “adaptadas” al entorno químico y físico existente.

· Con respecto a las moléculas anfifílicas necesarias para formar las membranas los experimentos han demostrado que se pudieron formar.

Propuesta de debate:
¿Es realmente tan importante la contribución de Oró? Y de ser así ¿cómo es posible que en España no se utilice mucho más esta figura para incentivar carreras científicas?


Nota final: espero disculpéis todos los errores que seguro tiene el resumen. Me ha costado mucho resumir e intentar dejar lo más significativo. Yo no soy bioquímico y me lío con su terminología, todo se mezcla en mi cabeza. Arreglar los errores en los comentarios, please!

sábado, 17 de septiembre de 2016

Orígenes. La vida. Capítulo 2 - Aproximaciones al origen de la vida

Este capítulo hace un recorrido histórico por cómo se ha ido construyendo el conocimiento sobre el origen de la materia viva, desde las primeras creencias hasta llegar a la sopa primitiva.

La vida y la generación espontánea

Como con el Universo, la primera idea que tuvo el ser humano sobre el origen de la vida fue que era el producto de fuerzas sobrenaturales o (más concretamente) de deidades. Aunque, por lo que sabemos de los filósofos griegos, estos ya se plantearon hipótesis más racionales y con algo más de criterio científico. Aunque quien impulsó claramente la teoría de la generación espontánea (que mucho después empezaría a llamarse también abiogénesis o arqueobiosis) fue Aristóteles en el siglo IV a.C.

Se trataba de una teoría idealista: la materia se podía combinar con la forma gracias a una fuerza llamada entelequia, adquiriendo así la vida. Esta hipótesis se mantuvo durante siglos e incluso René Descartes en el siglo XVI apoyó su validez. Pues durante el Renacimiento se siguió creyendo que la vida había aparecido de esta forma, con excepción de los seres humanos, que (¡naturalmente! ;P) serían obra directa del creador.

Francisco Redi (un contemporáneo de Newton el cual -por otra parte- también apoyaba la abiogénesis) fue el primer científico que puso en duda la teoría planteada por Aristóteles. Pues diseñó un experimento en el que colocó tres trozos de carne cruda en otros tantos frascos de vidrio: el primero lo dejó abierto, el segundo lo cubrió con un trozo de gasa, y el tercero lo cerró por completo con un tapón de corcho. Al cabo de unos días observó que sólo en la carne del frasco abierto aparecían pequeños gusanos blancos, que eran larvas de mosca. Esto demostraba que los gusanos no se habían producido por generación espontánea. Sus conclusiones, publicadas en 1648, aunque fueron concluyentes también fueron ampliamente cuestionadas, pues nadie más dudaba aún de la generación espontánea. Y tampoco podía explicar el motivo por el que la carne estaba en descomposición en los tres frascos. Pues tendrían que pasar cuatro décadas más para que se conocieran las bacterias.

Fue tras la invención y posterior uso del microscopio que se empezó a tener conciencia de la existencia de un mundo microbiano. El holandés Anton van Leeuwenhoek (actualmente considerado el padre de la microbiología) gracias a los casi 500 aumentos de sus mejores lupas, en torno a 1676, logró observar por primera vez una sorprendente cantidad de algas y otros diminutos animáculos que contenía el agua estancada. Mejorando aún más la calidad de sus lentes, a partir de 1683 observó incluso bacterias.

A inicios del siglo XVIII ya se conocían los microorganismos gracias al desarrollo de la microscopía.

Aún así la controversia entre vitalistas (para quienes los seres vivos no se rigen por las leyes físicas) y mecanicistas (quienes consideran la vida sometida a las mismas leyes que el resto de la materia) se generalizó. Por lo que en 1745 el biólogo y sacerdote John T. Needham (del bando de los vitalistas) realizó un experimento esterilizando un caldo de carne, para demostrar la validez de la abiogénesis. Pero cometió la trampa (o el error) de dejar el frasco sin tapar, pues consideraba que el aire debía poder entrar durante el proceso “al ser el espíritu vital que desencadenaba la generación espontánea”. Y así creyó que demostraba la abiogénesis.

Lazzaro Spallanzani, biólogo italiano, 1729-99
Lazzaro Spallanzani, biólogo italiano, 1729-99
En el otro bando, el de los mecanicistas, Lazzaro Spallanzani en 1769 diseñó un experimento basado en el de Needham, pero alargando el tiempo de cocción y, sobre todo, sellando perfectamente los recipientes, con lo que no aparecieron microorganismos; hasta que, unos días después, no abrió los recipientes que habían estado sellados. Con este experimento se demostró que el mantenimiento de las condiciones de esterilidad no acababan con ese supuesto espíritu vital intangible (argumento de Needham), sino que únicamente impedía la presencia de microorganismos. Y este fue el inicio del fin de la teoría de la abiogénesis

En 1859, el químico francés Louis Pasteur demostró, con una serie de experimentos, que  ningún ser vivo puede originarse por abiogénesis. En estos cambió el sellado del tarro de caldo por una boca de matraz en forma de S, con lo que permitía que el oxígeno entrase pero impedía la entrada de seres vivos.

En 1864 Pasteur repitió dichos experimentos en la Academia de Ciencias de París dando por concluida la controversia. En 1870, el biólogo Thomas H. Huxley acuñó los términos abiogénesis y biogénesis para distinguir entre la ya superada hipótesis de la generación espontánea y la nueva evidencia mostrada por Pasteur, que se sintetizaba en la ley de la biogénesis: «Toda vida proviene de la vida». Pero este enunciado llevaba implícito un gran interrogante: si todo ser vivo procede de otro, ¿cómo pudo surgir el primero?

Darwin: el origen

Charles R. Darwin fue quien realizó las primeras reflexiones científicas sobre el origen de la vida. Aunque no trató directamente este tema en sus publicaciones, en su obra “El origen de las especies” sí que menciona que la vida pudo provenir de un corto número de formas o «de una sola», adelantándose al descubrimiento (con una antelación de 130 años) de que todas las especies que hemos habitado en este planeta somos descendientes de LUCA, nuestro último ancestro común.

Estatua de Charles Darwin. Foto de la Natural History Museum, Londres.
Estatua de Charles Darwin. Museo de Historia Natural, Londres.
Que Darwin no abordase este tema directamente fue un tema controvertido en esa época, como se muestra en una carta escrita en 1860 al geólogo Charles Lyell donde se lamentaba de quienes pensaban que no había ningún beneficio en indicar cómo surgen las formas de vida sin antes evidenciar cómo se origina esta. Cosa que hicieron, entre otros, el naturalista y filósofo Ernst Haeckel, además de echarle en cara el haber incluido (a partir de la segunda edición) al creador en el último párrafo de su obra.

Más tarde, fue también Darwin quien comenzó a intuir los mecanismos graduales que pudieron llevar del mundo inorgánico a la materia viva. En una carta enviada en 1871 a Joseph D. Hooker se planteaba por primera vez en la historia un comienzo puramente químico de la vida, a partir de diferentes compuestos que reaccionaban entre sí gracias a alguna fuente de energía presente en el medio.

Otra reflexión en esta misma línea la encontramos en otra misiva enviada por Darwin al geólogo Daniel Mackintosh en 1882, en la que apuntaba la posibilidad de que algún día se pudiese probar que los seres vivos pudieran ser desarrollados a partir de materia inorgánica, poniendo como ejemplo que ya se había demostrado que se podían sintetizar compuestos orgánicos a partir de moléculas inorgánicas.

Aunque Darwin no conoció la obra y los experimentos de Gregor J. Mendel fue contemporáneo de este monje y naturalista cuyo trabajo permitió descubrir los principios básicos de la herencia biológica (estableciendo las leyes que rigen la transmisión de los caracteres entre los organismos progenitores y su descendencia) y que sentaría las bases de una disciplina más tarde denominada genética.

Mendel publicó en 1866 un ensayo con los resultados de su trabajo, aunque no sería redescubierto hasta casi 40 años después.

Así, a principios del siglo XX William Bateson acuñó el término genética, y Walter Sutton propuso la teoría cromosómica de la herencia al comprobar que las propiedades de los cromosomas se correspondían con las unidades particuladas postuladas por Mendel. Poco después Thomas H. Morgan determinó que los cromosomas consisten en una disposición lineal de genes.

Oparin y Haldane

El bioquímico ruso Alexandr I. Oparin y el genetista y biólogo evolutivo inglés John B. S. Haldane en la década de 1920 publicaron de forma independiente los dos primeros textos dedicados específicamente al origen de la vida

Aleksandr Oparin (derecha) en el laboratorio.
Aleksandr Oparin (derecha) en el laboratorio.


John Burdon Sanderson Haldane
John Burdon Sanderson Haldane



En ellos se proponían modelos, básicamente teóricos, aunque con ciertos componentes experimentales, de una serie de etapas químicas que habrían tenido lugar en los océanos primitivos y que permitieron llegar hasta los primeros seres vivos.

Tanto Oparin como Haldane postulaban la existencia de sopas o caldos iniciales con recetas parecidas, que corresponderían al contenido del pequeño charco de agua templada propuesto por Darwin en 1871. A partir de esos caldos primigenios se podrían formar, como escribió Haldane, «las primeras cosas vivas o medio-vivas» capaces de reproducirse. También Haldane coincidía con Oparin en que los primeros seres vivos fueron probablemente bacterias heterotróficas, pues utilizarían como fuente de carbono las moléculas orgánicas presentes en la sopa primitiva, en lugar de fijar de forma autotrófica el CO2 atmosférico.

Así, la Hipótesis de Oparin-Haldane, que al principio fue difícil de aceptar por sus colegas, constituye el primer planteamiento científico en el campo del origen de la vida. Los caminos abiertos fueron posteriormente explorados por químicos orgánicos, geoquímicos y bioquímicos en todo el mundo, hasta que, un cuarto de siglo más tarde, se dio el salto definitivo a la ciencia experimental.


He pensado los siguientes temas para comentar:
  • Carlos Briones (el autor) comenta en el capítulo que la Hipótesis de Oparin-Haldane puede considerarse una adaptación de la teoría de la generación espontánea, aunque desprovista de toda su carga espiritual. Pero, tal como la planteó Aristóteles, la fuerza llamada entelequia era la parte central de esa hipótesis. Es por ello que no creo que se pueda comparar. ¿Qué pensáis?
  • ¿Qué os ha llamado más la atención de cómo se ha llegado al conocimiento actual sobre el orígen de la vida?
 ¡Que tengáis una feliz semana!


sábado, 10 de septiembre de 2016

Orígenes. La vida. Introducción

INTRODUCCIÓN

La segunda sección del volumen Orígenes que estamos comentando lleva por título “La vida” y ha sido escrito por Carlos Briones (aka @brionesci). Como nos explica en la introducción que voy a resumir, el objetivo de esta parte de la obra consiste en:

Exponer lo que la ciencia sabe (y lo mucho que ignora) sobre los acontecimientos que pudieron producirse y combinarse durante [el] lapso de tiempo, de no más de 400 Ma, que cambió para siempre el devenir de nuestro planeta. También mostraremos, más brevemente, los procesos y transiciones fundamentales que se han sucedido durante la evolución de los seres vivos.

Podríamos en suma resumir la finalidad de este bloque en la búsqueda de respuesta a una, aparentemente, sencilla pregunta: ¿Cómo a partir de la química, emergió la biología?

¿Cómo surgió la vida?

En la tarea de obtener respuestas para esta pregunta tan crucial para comprender cómo hemos llegado hasta aquí, los científicos emplean dos estrategias complementarias. La primera línea de trabajo es la que se denomina del pasado hacia el presente o de abajo hacia arriba. Consiste en proponer modelos y realizar experimentos para intentar llegar a la biología a partir de una química que sea progresivamente más compleja e inter-relacionada. Lo más complicado desde este punto de vista es establecer la frontera entre lo vivo y lo inanimado, es decir, a partir de qué momento puede empezar a considerarse como vivo un sistema químico.

La segunda aproximación se conoce como del presente hacia el pasado o de arriba hacia abajo y está basada en la comparación de los organismos actuales entre sí, y de éstos con las especies extintas que conocemos a través de sus fósiles. En la década de los ochenta del siglo pasado, y gracias al análisis de la información de un mismo gen, se demostró que todos los organismos provenimos de un mismo antepasado común: LUCA (del inglés Last Universal Common Ancestor). No sabemos cómo pudo ser LUCA, pero sí que sus características eran las mismas que tenemos en común todos sus descendientes.

A pesar de todos los esfuerzos, quizás nunca sepamos cómo ocurrió el origen de la vida, ya que éste fue un hecho histórico y por tanto irrepetible, pero cada vez tenemos más claro lo que pudo ocurrir.



¿Dónde se produjo el origen de la vida?

Se plantean dos posibilidades: pudo ser endógeno, es decir, haberse iniciado en entornos tan distintos como pequeños charcos, la superficie del mar, las emanaciones hidrotermales submarinas o la atmósfera. Pero también pudo ser exógeno, lo que implicaría que la vida (o alguno de sus constituyentes moleculares) se formó en otros planetas o satélites. Es lo que conocemos como panspermia. Lo más probable que haya un poco de los dos aspectos, y parte de los ingredientes se formaran en la Tierra, y otros llegaran con los meteoritos o cometas. En cualquier caso, la discusión sobre si el origen de la vida se produjo en nuestro planeta o fuera de él no resuelve ningún problema; simplemente lo cambia de lugar.

El azar

Cuando tratamos de comprender un suceso tan complejo, es imposible no pensar en el posible papel que haya podido tener la necesidad y el azar en el surgimiento de la vida. En este sentido, tenemos que hablar de Jaques Monod, un biólogo francés que sostuvo que “la estructura actual de la biosfera no excluye, sino que al contrario apoya, la hipótesis de que el acontecimiento decisivo sólo haya ocurrido una vez. Esto significaría que su probabilidad a priori era casi nula. […] Nuestro número ha salido en el juego de la ruleta del casino de Montecarlo”.

Frente a esta posición, Robert Shapiro (químico) mantiene que “si la vida hubiese surgido en nuestro planeta como resultado del puro azar, la aplicación de la teoría de probabilidades indica que se habría requerido para ello un tiempo mucho mayor que la edad del Universo”.

Por su parte, el también biólogo Christian de Duve afirmó “En mi opinión, la forma en que la vida se originó en la Tierra es, visto con suficiente amplitud, un fenómeno determinista. Por tanto, si se dan las mismas condiciones en otro planeta, debemos esperar que la vida surja en formas químicamente similares a las de la Tierra”.

La conclusión de nuestro autor es que “la vida sería el resultado de las opciones que tiene la materia para, sin dejar de obedecer las leyes de la física y la química, incrementar progresivamente la complejidad de los procesos en los que participa hasta generar una dinámica auto-replicativa que le permite mantenerse alejada del equilibrio termodinámico gracias a un consumo constante de energía. Los intentos frustrados de originar la vida fueron probablemente numerosos, de forma que LUCA y sus descendientes seríamos el resultado de muchas jornadas de suerte en la ruleta de la Tierra primitiva”.



Pero, ¿qué es la vida?

Como sucede en cualquier campo de investigación, tratar de comprender el origen de la vida implica llegar a un cierto consenso sobre cuál es su objeto de estudio.

La primera definición racional la encontramos en las obras de Aristóteles quien afirmó que “Vida es aquello por lo cual un ser vivo se nutre, crece y perece por sí mismo”. A partir de aquí, nuestro autor realiza un recorrido histórico a través de las obras de Engels, Oparin, Schrödinger (y su famoso libro “¿Qué es la vida?”) y a los “autómatas auto-reproductores” como definía a los seres vivos el matemático John von Neumann.

Durante el último medio siglo también se han propuesto varias definiciones más cercanas a la química y la biología, como la de John D. Bernal en 1965: “La vida es un sistema de reacciones orgánicas acopladas potencialmente capaces de perpetuarse, catalizadas por etapas y de forma casi isoterma por catalizadores orgánicos específicos y complejos, que son producidos por el propio sistema”.

John Maynard Smith, Christian de Duve y Lynn Margulis ofrecieron cada uno también su punto de vista sobre tan escurridizo concepto, tal y como hicieron ya en España, Ricard Solé, Juan Pérez-Mercader y de forma conjunta, Kepa Ruiz-Mirazo, Juli Peretó y Álvaro Moreno.

Sin embargo, todas estas aproximaciones no han hecho sino mostrar lo complicado de la tarea, ya que hasta qué punto podemos preguntarnos qué es la vida antes de que encontremos otro ejemplo de vida fuera de la Tierra, con el cual podamos comparar las características de los seres vivos que conocemos. Robert Shapiro lo ha expuesto con maestría: “¿Cómo definiríamos lo que es un mamífero si el único mamífero que hemos visto es una cebra?”.

Por lo tanto, una opción alternativa a tratar de ofrecer una definición de este concepto consiste en estudiar las características fundamentales que diferencian a los seres vivos de los inanimados. Y así encontramos tres propiedades comunes a todos los seres vivos: poseen información heredable que transmiten a su progenie, están compartimentados de forma que el ser vivo se diferencia de su entorno, y desarrollan un metabolismo gracias al cual intercambian materia y energía con dicho entorno.

Tenemos que destacar que la replicación de la información genética de los seres vivos no produce copias idénticas del original. Esto es muy importante porque de ahí surgen errores o mutaciones que son la fuente de cierto grado de diversidad. Esta característica es clave para que opere la evolución por selección natural: los individuos que estén mejor preparados para soportar las condiciones del ambiente (mejor adaptados) mostrarán una mayor eficiencia biológica y dejarán más descendientes que los demás.

Por lo tanto, con estos conceptos en mente, podemos tomar como una definición operativa válida la adoptada por el Instituto de Astrobiología de la NASA: “Un ser vivo es un sistema químico auto-mantenido que evoluciona como consecuencia de su interacción con el medio”.



La química de los seres vivos.

En la parte final de la introducción vamos a conocer (aún de forma somera) algunos de los conceptos clave que vamos a necesitar para seguir el desarrollo de la sección.

Si analizamos la composición de los seres vivos al nivel más básico, es decir, estudiando los elementos de los que estamos hechos, tenemos que saber que el 99% de toda la materia viva está constituida únicamente por oxígeno, carbono, hidrógeno, nitrógeno, fósforo y azufre. El 1% restante se reparte entre otros elementos de la tabla periódica (minoritarios pero imprescindibles). En definitiva, el análisis de la composición elemental de la vida pone de manifiesto que somos fundamentalmente agua y carbono.

Aunque nada impediría que exista algún tipo de vida no basada en agua y/o carbono (y de hecho en ninguna de las definiciones que se manejan se pone como condición dicha composición), resulta evidente que la bioquímica que conocemos utiliza la mejor base química posible.

Por último, no podemos dejar de hablar de las biomoléculas orgánicas: los glúcidos, los lípidos, los aminoácidos y proteínas, los nucleótidos y ácidos nucleicos y distintos tipos de metabolitos.

Los glúcidos: actúan como almacenadores de energía.

Los lípidos: son las principales moléculas que forman las membranas biológicas, y también pueden funcionar como compuestos de reserva energética y como moléculas reguladoras.

Los aminoácidos: son los constituyentes de los péptidos y proteínas, y desempeñan un papel fundamental en el metabolismo.

Los nucleótidos: son los monómeros que constituyen los ácidos nucleicos (ácido ribonucleico o ARN; y ácido desoxirribonucleico o ADN). Por otra parte, algunos ribonucleótidos como el ATP o el GTP son moléculas fundamentales como intercambiadoras de energía en el metabolismo. Se denomina genoma al conjunto de la información genética que posee una célula o un virus. En los organismos celulares, los genomas son de ADN y se estructuran en uno o más cromosomas. Por su parte los genes son regiones del genoma que poseen la información para ser transcritos en forma de ARN mensajero y otros tipos de ARN.

Las proteínas están formadas por cadenas de aminoácidos (generalmente de entre 100 y 600 monómeros) y son las principales responsables de las estructuras y funciones de las células.

Este rápido repaso por la composición química de la vida nos ha llevado desde el agua hasta, por ejemplo, el sistema nervioso central de un ser humano. Con ello se ponen de manifiesto los distintos niveles de complejidad que puede llegar a adquirir la química cuando se organiza en forma de sistemas vivos. Las características químicas y bioquímicas fundamentales de los organismos no han variado desde LUCA hasta hoy, lo que plantea un gran reto: intentar averiguar cómo se produjo la transición o el salto entre la química y la biología hace más de 3500 Ma.

Bueno, hasta aquí mi resumen de esta estupenda introducción. Como veréis, nos esperan suculentos capítulos para profundizar en el fascinante mundo de la vida, así que ¡a comentar qué os ha parecido! 

sábado, 3 de septiembre de 2016

Origenes, el universo: Capítulo 8 - Y al final del origen...

Este capítulo se presenta como el colofón del origen de todo lo que vemos (las estrellas, galaxias, etc..) e incluso de lo que no vemos (materia oscura, energía oscura, la recuperación económica...). Además es la presentación perfecta para la siguiente parte del libro.

Comienza el capítulo explicando que los cambios de estado (como nos gusta la termodinámica a los físicos) ya han pasado, y nos encontramos en una fase del Universo más tranquila, la densidad y la temperatura han descendido hasta límites inimaginables si los comparamos con lo caliente que estaba todo hace solo unos pocos millones de años. Solo queda como interacción reinante la muy débil (en serio, esto es importante, muy débil) gravedad.

Las ligerísimas inhomogeneidades que se observan en el fondo cósmico de microondas van consolidándose formando las estructuras que observamos ahora: galaxias, cúmulos y supercúmulos. El autor nos cuenta como midiendo las posiciones y velocidades se puede intuir el movimiento futuro de las galaxias. Viendo así cómo se relacionan unas con otras, los que nos descubre la gran estructura a la que pertenecemos llamada Laniakea (que en hawaiano quiere decir Cielo-Inabarcable, Lani-akea), el siguiente vídeo muestra este hecho:

Laniakea Supercluster from Daniel Pomarède on Vimeo.

Parece que nuestra galaxia se empezó a formar hace unos 10.000 millones de años. Aunque este dato es muy difícil de precisar ya que hay objetos dentro de ella que tienen una edad cercana a la del Universo (13.800 millones de años). Lo que apoya la idea de que lo primero en aparecer fueron objetos pequeños (estrellas) que poco a poco fueron formando los objetos que vemos como galaxias. Esto es lo que se llamaría aproximación bottom-up, o modelo jerárquico. Apoyado también por las observaciones del cielo profundo donde no se aprecian galaxias elípticas que son más homogéneas.

También existe un modelo de formación de galaxias top-down, que defiende que primero colapsan enormes nubes de gas que forman galaxias elípticas muy masivas, y con poblaciones estelares muy homogéneas, es decir, que prácticamente todas las estrellas se formarían a la vez y después permanecería en un relativo reposo. Parece que en este basto Universo hay sitio para acomodar galaxias con todas la teorías posibles.

Hay que destacar que todo lo que conocemos sobre las galaxias y su formación, así como lo conocido sobre la formación de los sistemas planetarios está en constante revisión. En Astronomía como en otras ramas de la ciencia, en los últimos años, se ha cambiado el paradigma del científico solitario, o pequeños grupos, a grandes colaboraciones internacionales, sobre todo debido al incremento en la complejidad de los instrumentos necesarios, así como de las dificultades halladas.

Uno de los avances que ha propulsado la investigación en cosmología es el avance en computación. Con las teorías teorías de evolución estelar que tenemos se puede programar en un supercomputador la evolución que tendría el Universo desde unas condiciones iniciales concretas y conocidas (el CMB). Los avances en el campo de la simulación han seguido a rajatabla la Ley de Moore, pasando de 1000 partículas en los 70's a 10 millones en los 90's y a 10.000 millones en la actualidad. (La siguiente imagen ha sido extraída de la web del proyecto Illustris)
Proyección a gran escala de la simulación Illustris, centrada en un cluster muy masivo. Muestra la densidad de materia oscura superpuesto al campo de velocidades del gas.
Proyección a gran escala de la simulación Illustris, centrada en un cluster muy masivo. Muestra la densidad de materia oscura superpuesto al campo de velocidades del gas.
En las simulaciones se incluye sólo la materia oscura, ya que es más fácil de modelizar porque sólo responde a la gravedad. Una de las cosas que nos dicen que estamos en el buen camino es que las simulaciones, que realizamos a partir de nuestras teorías y modelos, dan como resultado unos universos que se parecen mucho al nuestro.

La última parte del capítulo ya presenta la posible formación de sistemas planetarios, avisando que muchas de las cosas que creemos saber sobre los procesos de formación de planetas y discos protoplanetarios están en constante revisión. Lo que parece claro es que el sistema solar se formó a partir de los restos de una supernova anterior, ya que necesitamos que haya algo más que el Hidrógeno y el Helio primordial. De esta forma a partir de esta nube de "polvo enriquecido" con átomos más pesados se formaría nuestro Sol y habría material de sobra para formar los planetas rocosos que conocemos.

Esta nube de "gas enriquecido" iría colapsando por atracción gravitatoria formando pequeños grumos donde en el centro estaría concentrada la mayor cantidad de masa que sería la que formaría nuestro Sol. Después, en un ajetreado inicio, los pequeños grumos formados exteriormente (planetesimales) irían limpiando sus propias órbitas al acretarse el material circundante. Esta limpieza también se vería favorecida por la ignición del Sol, ya que la presión de radiación (viento solar) desplazaría hacia el exterior las partículas más ligeras. También calentaría los posibles fragmentos de hielo, razón por la que el cinturón de asteroides son testigos "secos" de este inicio de la formación de nuestro planeta, y los fragmentos más exteriores (cometas) son testigos "húmedos".

En la imagen se ven tres viñetas con el título "Los asteroides y cometas se odian entre ellos. En una primera se ve un cometa alejado de un asteroide, en la segunda el cometa ha alcanzado al asteroide, y en la tercera lo ha pasado y hay un pensamiento de cada uno el asteroide piensa: Sucia bola de nieve. Mientras que el cometa piensa: Roca sin vida.


Algo a destacar serían los últimos descubrimientos de "química interestelar" (me invento los nombres pero creo que hay alguna rama así) donde, sorprendentemente, las observaciones en radio o infrarrojo han identificado moléculas orgánicas en esos discos protoplanetarios, o incluso en las grandes nubes de gas interestelar. Moléculas que pueden llegar a la complejidad del Dimetil Éter (CH3OCH3). Lo que nos indica que hay interacción entre los elementos y moléculas libres. Por supuesto también se han encontrado moléculas de agua, lo que explicaría el origen de ella en nuestro sistema solar. Aunque el agua en nuestro planeta sigue sin estar claro si ya se hallaba en la Tierra o vino a bordo de cometas.

La tierra se formó, según distintas estimaciones, hace unos 4600 millones de años, y sólo 1000 millones de años después ya tenemos evidencias fósiles, esto significa que la vida estuvo aquí mucho antes, prácticamente tendría la misma edad que la tierra, ya que los primeros seres vivos no serían tan complejos como para dejar fósiles ¿Existen fósiles de bacterias o archeas? 

"... los primeros pasos para la formación de seres vivos pudieron producirse apenas las condiciones fisicoquímicas fueron suficientemente estables como para permitirlo."

Y así es como el autor nos deja preparada la siguiente parte del libro.

Espero no haberme enrollado mucho, y ahora cuestiones para el debate, además de la duda sobre las bacterias:

1.- ¿No os parece que, a pesar de que el autor afirma que todo está en constante revisión, tenemos como más cierto todo este proceso de formación de planetas?

2.- ¿Qué papel juega la materia oscura en esta pequeña escala de los discos protoplanetarios?

3.- Y antes de dejar atrás la cosmología, no quiero dejar de pasar la oportunidad de ver si alguien me resuelve una duda. Si la expansión del Universo se está acelerando, supongo que cada vez hay más energía oscura, ya que esta es la energía del vacío ¿O hay siempre la misma? ya que si la energía total se tiene que mantener se debería consumir materia ordinaria u oscura. Si no es así, que supongo que no, si la Energía Oscura es una propiedad del propio espacio-tiempo ¿Podrá llegar en algún momento a influir dentro de los filamentos de materia oscura? Y para más inri ¿Afectará dentro de las galaxias llegando incluso a un "Big Rip" a nivel atómico?

@guardiolajavi

viernes, 26 de agosto de 2016

Orígenes, El universo. Capítulos 6 y 7. Cosmología de precisión. El futuro de nuestro pasado.

Antes que nada quería sumarme desde aquí junto a Tertulias Literarias de Ciencia con todos sus participantes y miembros a las condolencias por los habitantes y familiares que han sufrido en mayor o menor medida los terremotos en #Italia, #Arquatadeltronto, #Pescaradeltronto, #Amatrice y #Accumoli, nuestro más sentido pésame. 

Lo descrito hasta el momento y las pruebas  observacionales de la parte del universo en que vivimos nos proporciona un punto de partida para poder proponer un modelo cosmológico que aunque no sea irrefutable si se ciñe (con sus incertidumbres) a las pruebas que se han acumulado mayormente en los últimos 50 años.
El modelo lambda y materia oscura fría (ΛCDM), un modelo que nos dice que el universo es plano, sin curvatura y con densidad crítica. 
Pero cuidado, por que éste modelo también tiene sus problemas, de ahí  que aun sea un modelo. 
Para empezar, en el modelo de la Gran Explosión, nos proponen que hubo la misma formación de partículas y antipartículas que se sabe que al interactuar entre ellas se aniquilan en un fogonazo de energía como señala la ecuación de Einstein E = mc² (que nos dice que hay una conversión de energía en masa y viceversa o lo que es lo mismo, la masa es energía condensada en forma de partículas),  por lo tanto cuando dos partículas se aniquilan sus masas se convierten en energía,  en este caso en fotones, energía pura. Es un principio básico de la física que éstas reacciones sean totalmente simétricas. 

Hoy día vemos más materia que antimateria en nuestro universo observable, entonces ¿ donde está la antimateria que falta si al inicio se creó la misma cantidad de materia que antimateria?, y si las aniquilaciones son simétricas ¿por que entonces hay algo en vez de nada?  Son las dos preguntas que nos deja Alberto para que nos hagamos a la idea de que sepamos donde falla el modelo y que aun quedan muchas cosas por resolver.

Entonces, la simetría no se cumple al 100% ya que si no, no estaríamos aquí y el universo tal y como lo conocemos hoy en día no sería el mismo.
Dentro del modelo, los problemas por resolver son varios.
La simétrica CP, solamente violada por la interacción débil :

"La simetría ha demostrado ser una herramienta esencial para el desarrollo de la ciencia, y a día de hoy, es uno de los conceptos protagonistas de la física y matemática moderna. Los dos desarrollos teóricos más brillantes del siglo XX, la Teoría de la Relatividad y la Teoría Cuántica, incorporan nociones de simetría en un modo fundamental e irreemplazable. No sería una sorpresa si, en un futuro, las Leyes de la Naturaleza terminan escribiéndose únicamente en términos de nociones de simetría.
En física de partículas las simetrías se dividen en continuas y discretas. Las simetrías discretas más importantes son C, P, T y sus combinaciones CP, T y CPT. La conjugación de carga (C) es la operación matemática que cambia los signos de todas las cargas de una partícula, por ejemplo, cambia el signo de la carga eléctrica. Conjugación de carga implica que para cada partícula cargada existe una antipartícula con la carga opuesta. La antipartícula de una partícula eléctricamente neutra puede ser idéntica a la partícula, como es el caso del pión neutro, o puede ser distinta, como pasa con el anti-neutrón debido al número bariónico. La paridad (P), o inversión espacial, es el reflejo en el origen del espacio de coordenadas de un sistema de partículas; i.e., las tres dimensiones espaciales xy, y se convierten en −x, −y, y −z, respectivamente. La inversión temporal (T) es la operación matemática que reemplaza la expresión del tiempo por su negativo en las fórmulas o ecuaciones de modo tal que describan un evento en el cual todos los movimientos son revertidos. La fórmula o ecuación resultante que permanece sin modificaciones tras esta operación se dice que es invariante bajo inversión temporal, lo cual implica que las mismas leyes de la física se aplican en ambas situaciones, que el segundo evento es indistinguible del original. Una película de dos bolas de billar que colisionan, por ejemplo, puede ser pasada hacia adelante o hacia atrás sin ninguna pista sobre cuál es la secuencia original en que ocurrieron los hechos. 
De este modo los físicos razonaron que si CP era una entonces T debería serlo también debido al teorema CPT. Sin embargo los experimentos siguientes, llevados a cabo en 1964, demostraron que los mesones K eléctricamente neutros de vida media larga, que debían decaer en tres piones, decaían una fracción de las veces en sólo dos de estas partículas, violando así la simetría CP. Suponiendo el teorema fundamental de CPT, la violación de CP implica también una violación de T. En este teorema, considerado uno de los pilares de teoría cuántica de campos, conjugación de carga, paridad e inversión temporal son aplicadas todas juntas y, combinadas, estas simetrías constituyen una simetría exacta de todos los tipos de interacciones fundamentales. Cabe notar que constantemente se realizan experimentos para verificar la validez de la simetría CPT – que hasta el día de hoy siempre se ha visto respetada.
Las violaciones de CP y de T tienen importantes consecuencias teóricas. La violación de la simetría CP permite a los físicos realizar una distinción absoluta entre materia y antimateria. Esta distinción puede tener implicaciones profundas en el campo de la cosmología: una de las incógnitas teóricas en física es por qué este Universo esta formado principalmente por materia. Con una serie de debatibles, pero plausibles, presunciones, se puede demostrar que la relación entre materia y antimateria que se observa pudo haber sido producida por el efecto de violación de CP durante las primeras fracciones de segundo después del Big Bang. Sin embargo, contrario a nuestras previsiones, la violación de CP medida en física de partículas hasta ahora no es suficiente para generar bariogénesis." 
                  

 Fragmento extraído de:   http://francis.naukas.com/2010/02/11/simetrias-c-p-t-cp-y-cpt/

Otro de los problemas que lleva de cabeza a los físicos es que el universo sea plano, osea que la densidad de materia y energía sea =1. Como hemos visto en el capitulo anterior el universo puede adquirir varias formas en función a su densidad. 
En función a los valores de edad, constante de Hubble, constante cosmologica "energía", cantidad de materia y cantidad de bariones, los datos nos dicen que tenemos un universo plano pero siempre con sus incertidumbres.  Ésto es otro problema en sí dado que viola el principio de mediocridad y que si fuera así, estaríamos otra vez en la incertidumbre de saber si nuestro lugar en el universo es especial y privilegiado o tan sólo es un lugar más como pueden haber otros sin que el nuestro tenga nada en especial,  véase el Pricipio de Copernico.


Pero las pruebas indican que el universo es perfectamente plano con una previsión del 1% esto nos dice que también tuvo que serlo hasta una parte en T 10 elevado a la 62 potencia en la época de Planck.

Otro problema es la homogeneidad que nos dan los datos del fondo cósmico de microondas. Para poder entender este resultado, debemos dar por hecho de que dos puntos opuestos de nuestro universo observable debieron estar unidos tiempo atrás para que se cumpla esta homogeneidad, para solucionar este problema se ha propuesto un modelo de inflación cósmica acelerada que tuvo que producirse al poco tiempo de nacer el Espacio-Tiempo a una velocidad exponencial e inimaginable y que duró muy poco tiempo.
Este hecho resolvería el por qué vemos un universo plano actuando como una plancha, alisando las posibles irregularidades que hubieran habido en el inicio.  
También explicaría la homogeneidad que nos muestran las obsevaciones porque corrobora el que miremos hacia donde miremos la temperatura del cosmos es prácticamente la misma y que en su inicio fuera tan pequeño como para alcanzar el equilibrio térmico. 
Ésta nueva propuesta requiere un nuevo componente por descubrir, pasaría por la presencia de un campo inflatón, el cual necesitaría una partícula mediadora, el Inflaton (aún por descubrir pero con sus propiedades teóricas bien definidas) y que hubiese tenido en el momento de la inflación cósmica un cambio de fase que causara dicha inflación exponencial.
Otra prueba que aportaría validez a la inflación sería la detección de luz polarizada llamada modo B, dicha luz a través de las ondas gravitatorias primordiales (YA DETECTADAS este mismo año pero no primordiales en una colisión de dos agujeros negros gracias al experimento LIGO)  habrían creado una débil señal que debería captarse en el fondo cósmico de microondas. 
El equipo de BICEP 2  anunció a principios de 2014 que  habían descubierto este tipo de luz y hubo un gran revuelo ya que daría paso a ratificar la inflación cósmica con una expansión brutal. También nos obligaría a aceptar que hubo un huevo cósmico que lo contenía todo, es decir, el universo surgió desde el vacío cuántico y ese fenómeno dejó huellas que veríamos a través de la luz de modo B "primordiales" que a su vez confirman las ondas gravitatorias primordiales provocadas por fluctuaciones cuánticas del inicio del universo.  Todo esto confirmaría el modelo ΛCDM. 

El destino final del universo.

Si importante es intentar saber lo que pasó, no menos es intentar saber que es lo que pasará.

Sabemos que el universo ha entrado en una expansión acelerada si los datos futuros no nos dicen lo contrario. Parece ser que la constante cosmológica y la muerte fría,  también llamada "Big Rip" ganará la batalla tanto a la "respiración cósmica" como al "Big Crunch" el frenado de la expansión y posterior regreso a una Singularidad.
Si el Cosmos continua su aceleración constante y exponencial todo indica que la muerte será fría. Pero no sólo la contante cosmología nos dejará en un inmenso vacío cósmico, también las estrellas morirán dejando cadáveres estelares, (como llegará a ser nuestro Sol)  las galaxias dejarán de tener los materiales primordiales para crear nuevas estrellas y luego los agujeros negros no tendrán de que alimentarse sumiendo al universo en un lugar frío y oscuro.


Y aquí va mi duda :
La inflación cósmica tuvo lugar dentro del primer segundo de vida del universo,  he creído entender que hasta dentro de la época de Plank,  según dice en el libro, en menos de un attosegundo tuvo un crecimiento exponencia de 10*26. La comparación de éste crecimiento es como si el radio de un átomo de hidrógeno creciera hasta alcanzar el tamaño de la mitad de una unidad astronómica. Pero ¿cuanto tiempo duró este crecimiento en total ? No me cuadra,  se sabe que hubo este periodo de expansión rápida y que luego se deceleró para luego otra vez comenzar a acelerarse pero más "tranquilamente"
En función a estas recreaciones gráficas, algunas ponen la inflación hasta el fondo cósmico de microonda o otras antes,  ¿alguien me puede decir "si se sabe realmente" cuanto tiempo duró la inflación y cuanto tamaño adquirió antes de decelerar?







¿Que provocó que la inflación dejase de acelerar?

¿Podría ser por la pérdida de densidad de materia-energia gracias al espacio formado o adquirido en el proceso?

¿Podría ser también que al principio el propio campo gravitatorio fuese repulsivo y tuviera un cambio de fase en el momento de la deceleración o antes, pudiendo sustituir así al campo inflatón? Y luego entrara en juego la energia oscura.

Espero no haberme alargado mucho, gracias por darme la oportunidad de disfrutar.

sábado, 20 de agosto de 2016

Orígenes. El universo. Capítulo 5 - Nuevos Componentes


Echándome la manta a la cabeza, me he propuesto resumir el capítulo 5 de este interesantísimo y complejo libro.  El capítulo está dividido en tres subcapítulos. Materia oscura, energía oscura y oscilaciones bariónicas. ¿Quién de nosotros no ha oído hablar del lado oscuro del universo? ...jeje, Por cierto, me pregunto quién pone los nombres en Astrofísica, para poder decirle que es muy poco original, ¡todo es oscuro!! Y luego, nos sorprendemos si los profanos nos confundimos y la liamos. Pero vamos a ver si he entendido algo del capítulo y he sido capaz de ver algo de luz entre tanta opacidad y os explico qué diferencia hay entre estos conceptos tan complejos y negruzcos. Si he metido la pata en algo por favor decidlo que aquí estoy para aprender y no soy en absoluto una experta. ¡Ah! Si alguien puede explicarme qué diferencia hay entre materia oscura y perdida se lo agradecería, aunque no se trate en este capítulo. También quisiera agradecer y felicitar a Gaspar Sánchez y Jorge Bueno por sus espléndidos resúmenes.

Materia oscura

En primer lugar, un poco de historia. Se considera al astrónomo de origen búlgaro pero afincado en Suiza, Fritz Zwicky como una de las personalidades más brillantes y complejas del siglo XX. Físico y matemático que combinaba una enorme capacidad de trabajo con una febril imaginación. Personaje contradictorio de difícil trato, pero sincera generosidad. Es realmente uno de los protagonistas de todo el capítulo, aunque no el único, claro.

Fritz divisó por primera vez conceptos como el de las estrellas de neutrones y explosiones de supernovas como la fase final de la evolución de las estrellas masivas. Ideó el uso de supernovas como candelas estándar que permiten medir distancias a objetos cósmicos. También divisó la existencia de lentes gravitacionales y la presencia de materia oscura en el universo.

Su mayor descubrimiento fue observando el Cúmulo de Galaxias Coma. Y para hacérnoslo fácil, el autor nos pone como ejemplo nuestro Sistema Solar en el que se observa la tercera ley de Kepler, que relaciona el tiempo de traslación de un planeta alrededor del Sol y la distancia entre ellos. El Sistema Solar es, desde un punto de vista gravitatorio, sencillo porque casi toda la masa se encuentra en el centro. En un sistema más complejo, como el Cúmulo Coma, hay muchas masas moviéndose unas en torno a las otras y la situación se complica, aunque es matemáticamente similar.

Primera evidencia. Ya en 1930 se podían observar más de mil galaxias en un espacio relativamente pequeño como es el Cúmulo Coma.  Todas orbitando en un centro común cerca del cual residen dos galaxias elípticas supergigantes. Igual que en nuestro Sistema Solar, una galaxia que se moviera demasiado rápido habría sido expulsada del cúmulo y otra que se moviera demasiado despacio habría sido engullida por las galaxias supergigantes, pudiendo haber ocurrido innumerables veces. Existe un equilibrio físico expresado en una ecuación matemática llamada teorema del virial que promedia las velocidades de los objetos que forman el cúmulo y su masa total.

Fritz Zwicky en 1933 presento su primer trabajo sobre la distribución de velocidades de galaxias en el Cúmulo de Coma, y la comparación de estas velocidades con la masa total del mismo. Usando el teorema virial esperaba que las velocidades fueran del orden de 80 Km/s pero inesperadamente, el resultado que obtuvo fue de 1.000 Km/s. Completamente seguro de haber hecho un buen trabajo y que sus mediciones eran correctas, solo le quedaba la opción de pensar que en el cúmulo había más masa de la que se podía ver. A esa masa la llamó materia oscura.

Segunda evidencia.  Para esta tuvieron que pasar casi 40 años, gracias a la gran astrónoma americana Vera Rubin, mientras analizaba curvas espectrales. Rubin, encontró que la velocidad de giro del material de la galaxia espiral que estaba midiendo, tendía hacia una velocidad límite constante al acercarse a la zona exterior del disco. La única posibilidad de que esto ocurra es postulando que existe una gran cantidad de materia, no luminosa, que rodea a las galaxias espirales, materia oscura. Desde entonces se ha confirmado con innumerables observaciones.



Tercera evidencia. De nuevo Zwicky, se adelantaba a su tiempo. Una de sus ideas fue la posibilidad de detectar lentes gravitatorias, que son imágenes muy distorsionadas de objetos celestes producidas cuando la luz que emiten atraviesa una zona donde la influencia del campo gravitatorio de otro objeto cercano es muy intenso. El análisis de múltiples imágenes distorsionadas y espejismos cósmicos permite calcular la masa del objeto cercano causante de las distorsiones. Con este método, y el Telescopio Espacial Hubble con su punto de observación fuera de la atmosfera terrestre, se ha medido la masa de cantidad de galaxias y cúmulos de las mismas. Una vez más, el resultado de las mediciones de las masas indica que contienen más materia de la que podemos ver.

Qué no es. En primer lugar, no puede estar formada por objetos habituales que no emiten luz, como agujeros negros, planetas o estrellas, ya que existen observaciones que han puesto límite superior a la abundancia posible de esos objetos, y que es inferior a la cantidad necesaria para explicar la materia oscura observada. Por otra parte, las condiciones iniciales del Universo (la composición química inicial) también limitan la cantidad de materia oscura que pueda estar formada por partículas conocidas, que son menos de la quinta parte, excluyendo también a los neutrinos (que si formarían parte de la materia oscura)

Lo que sí es. Propiedades. Evidentemente tienen masa, ya que reaccionan gravitacionalmente sin participar en otras interacciones. No tiene carga eléctrica y no interacciona, que se haya visto, a través de ninguna otra fuerza con el resto de las partículas.

Los físicos tendrán que buscar una partícula en el Modelo Estándar o fuera de él que encaje en todo ello, ¡a por el reto!



Energía oscura

En 1995 el modelo del Big Bang estaba bien establecido, aunque sus parámetros no habían sido medidos con precisión. Se sabía que el universo estaba en expansión y saber la velocidad a la que se expandía (constante de Hubble H0) y la que se frena (constante de frenado q), era uno de los objetivos para entender el origen y el futuro del universo, con la esperanza de que el Telescopio Espacial Hubble ayudara a ello. Para conocer la constante de frenado, se intentó medir la densidad de materia-energía del Universo, ya que es esta densidad, por acción gravitatoria, la que actúa como resistencia a la expansión.

Un poco de geometría. La densidad del universo (ρ) se suele medir en comparación con densidad crítica (ρcrit): que es el valor exacto que separa el universo en eterna expansión de un universo que eventualmente se frenará y colapsará de nuevo. Para este coeficiente suele usarse la letra griega omega Ω = ρ/ρcrit .   De modo que según los resultados que obtengan:

 
Ω = 0 correspondería a un universo vacío

0< Ω < 1 a un universo en eterna expansión

Ω = 1 a un universo con densidad crítica

Ω > 1 a un universo que recolapsaría a una singularidad

 
Desde un punto de vista estrictamente geométrico, la densidad crítica representa también soluciones diferentes al de modelo de universo. De manera que:

 
Comparando densidades con línea espacio – tiempo



Densidad Ω > 1 Universo cerrado - Esférico

 



 
Densidad Ω < 1 Universo abierto - Hipérbola
 



 
Densidad Ω = 1 Universo plano - Euclidiano
 





 
 

Experimentación. También en ciencia se cae en expectativas sesgadas, como nos ocurre muchas veces a todos nosotros. La gran mayoría de los astrónomos estaban de acuerdo en que el resultado debía ser Ω = 1 y que la velocidad de expansión tenía que ser de 50-100km/s/Mpc. Pero muchas de las mediciones daban una densidad de Ω < 1

 
Así que se pusieron manos a la obra para saber el resultado correcto, Para lograr este objetivo idearon un experimento basado en una de las muchas ideas de Fritz Zwicky (el de la materia oscura). Pues bien, recordareis de capítulos anteriores que en la evolución estelar existían ciertos umbrales de masa que una estrella debía superar para poder alcanzar nuevas reacciones nucleares, de lo contrario la estrella agotaba su combustible y moría convirtiéndose en una enana blanca. Pero a veces, estos cadáveres forman parte de un sistema binario y poco a poco pueden ir atrayendo el material de su compañera haciendo que crezca su masa. Cuando esta masa llega aproximadamente a 1,38 veces la masa del Sol, se produce una explosión llamada supernova tipo Ia. Se sabe que esta explosión se da cuando la estrella tiene una masa muy concreta, lo que hace que pueda considerarse que todas las supernovas de este tipo son idénticas entre sí, y se utilizan para estimar distancias con gran precisión y averiguar la energía exacta que ha liberado. Conociendo esta energía y comparándola con la de la Tierra podemos, aplicando la ley inversa del cuadrado, calcular la distancia a la que se encuentra la supernova. Combinando estas distancias con las medidas de corrimiento al rojo (Redshift), se obtiene la estimación aproximada de la velocidad a la que se ha ido expandiendo el universo en cada época.

 
En dos estudios publicados independientemente en 1998 y 1999, se anunció un resultado inesperado. Las observaciones mostraban que la expansión del universo no solo no se frenaba, sino que, ¡se estaba acelerando! Es decir, no solo la atracción gravitatoria no era suficiente para desacelerar la expansión, sino que tenía que existir un “ente” que desconocíamos que compensara la fuerza de la gravedad y la acelerara. Este “ente” es el que llamamos energía oscura.

 
El cosmólogo John Wheeler resume la ecuación de campo de Einstein diciendo “el espacio-tiempo le dice a la materia como debe moverse y la materia le dice al espacio-tiempo como debe curvarse” La visión sesgada que tenía Einstein del universo no le permitía aceptar que no fuera infinito, y colocó en la formula una constante cosmológica que actuaba como una energía que la dotaba de densidad constante. Me explico, mientras para un gas la densidad y la presión se reducen cuando el volumen aumenta, la energía oscura actúa de modo que a pesar de que el universo se expanda, lo hace manteniendo la densidad. Esa constante hoy, la llamamos energía oscura.

 
De la energía oscura desconocemos qué tipo de ente (partícula, fuerza, campo, energía) puede tener las propiedades que se necesitan para este fenómeno. Hay trabajo para mucho tiempo.

 

Oscilaciones bariónicas

Por lo visto, las oscilaciones bariónicas son tan importantes como herramienta para la investigación como lo son las candelas estándar. Poder observar la escala del pico bariónico actúa como regla estándar.

Pero, ¿qué es un pico bariónico? Imaginémonos tirando guijarros a las tranquilas aguas de un lago mientras nos entretenemos viendo como cada uno de ellos genera las conocidas ondas circulares en el punto donde se hunde y se cruzan una con otras. Ahora imaginemos que el agua del lago se congela de golpe, dejando impresas las ondas y el lugar exacto donde cayó la piedra. Pues algo parecido ocurre cuando los astrónomos observan el fondo cósmico de microondas.  

 
Lo mismo ocurre con la distribución de materia del universo. Desde el mismísimo origen existieron pequeñas inhomogeneidades en ella, y estas dieron lugar a ondas de presión/densidad que se desplazaron por el medio (como las ondas de nuestro lago) compuesto de materia y radiación, a la velocidad de la luz. Recordemos que hace 380.000 años en el universo se produjo la recombinación (momento en el cual por primera vez se unieron electrones y protones) y los fotones se liberaron de la materia (mientras formaban el fondo cósmico de microondas), y estas ondas con forma de coronas esféricas quedaron “congeladas” a una distancia igual a la que habían viajado hasta ese momento. Hoy podemos observar esas “huellas” en los mapas de fondo cósmico de microondas y constatar que esas superficies esféricas contenían ligeras sobredensidades en comparación con el resto del universo y que en esos puntos más densos (picos bariónicos) es donde podemos encontrar más densidad de galaxias.

Me ha quedado un poco largo, lo siento :)