Mostrando entradas con la etiqueta Cosmología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Cosmología. Mostrar todas las entradas

martes, 22 de enero de 2013

Disfrutando a otro nivel



La foto que abre esta anotación corresponde a la iglesia de San Juan Apóstol y Evangelista de Santianes de Pravia (Asturias). Fue construida entre 774 y 783 por orden del rey Silo, con motivo del traslado de la capital asturiana a Pravia desde Cangas de Onís. Muy poco después, Abderramán I comenzaba la reforma de la basílica visigoda de San Vicente Mártir (siglo VI) para convertirla en lo que hoy conocemos como Mezquita de Córdoba. Y esto, ¿a qué viene?

En un episodio de los Simpsons, el profesor Frink se divierte con un juguete preescolar en el que unas bolas de colores dan vueltas en una semiesfera transparente montada sobre ruedas conforme él desplaza el conjunto con una barra. Cuando Maggie se lo reclama, Frink le espeta: “No. Tú no lo disfrutarías a tantos niveles como yo”. Si bien la posición de Frink es extrema, como corresponde a la caricatura que son los Simpsons, encierra posiblemente una gran verdad: la capacidad que la cultura científica nos da de disfrutar de las cosas a más niveles. Si el amable lector llega al final de este breve relato disfrutará, quizás, de San Juan de Santianes y de la Mezquita, a un nivel más.

En 2012 el equipo de investigadores encabezado por Fusa Miyake publicaba en Nature [1] la detección de altos niveles de los isótopos carbono-14 y berilio-10 en los anillos de los árboles formados en 775, lo que sugiere que un pico de radiación habría llegado a la Tierra el año 774 o el 775. Es decir, los árboles que se talaron para construir las vigas, artesonados y andamios de San Juan y la Mezquita podrían tener estos anillos enriquecidos.

Sigue leyendo en el Cuaderno de Cultura Científica

miércoles, 16 de enero de 2013

Antilentes gravitacionales: el lado brillante del vacío


Según la teoría de la relatividad general de Einstein la masa curva el espaciotiempo, creando campos gravitacionales. Por lo tanto, el espaciotiempo alrededor de objetos muy masivos (como cúmulos galácticos o agujeros negros) está curvado y, como resultado, la luz de una fuente (como una galaxia) que está detrás del objeto masivo desde el punto de vista de un observador, en la Tierra por ejemplo, se “curva” al propagarse por este espaciotiempo curvo. El objeto masivo se comporta como una lente que puede magnificar y distorsionar la imagen del objeto que está detrás. Esta teoría se confirmó en 1919 durante un eclipse solar cuando Arthur Eddington observó que la luz de las estrellas que pasaban cerca del Sol estaba ligeramente “desviada”, con lo que las estrellas aparecían algo fuera de su posición.

Einstein también se dio cuenta de que era posible además que, en las condiciones adecuadas, podrían observarse múltiples imágenes de una sola fuente, lo que hoy se llama lente gravitacional. Sin embargo, como sólo consideró lentes gravitacionales de estrellas individuales, llegó a la conclusión de que el fenómeno sería inobservable hasta donde podía prever. Fue Fritz Zwicky quien, en 1937, consideró por primera vez el caso en el que fuese una galaxia la que podría actuar como fuente, algo que de acuerdo con sus cálculos sí podría ser observable. En 1979 se descubría la primera lente gravitacional.



Tenemos pues que la masa concentrada en un cúmulo de galaxias curva el espacio tiempo haciendo que las galaxias que están detrás en la línea de observación aparezcan más brillantes o distorsionadas. Pero, ¿qué pasa si en vez de una gran masa tenemos un gran vacío?¿Y si en un volumen importante de espaciotiempo no hay casi nada de masa, es decir una zona con una densidad mucho más baja que el entorno? Tendríamos una curvatura del espaciotiempo, digamos, “negativa”, hacia el otro “lado”. ¿Qué pasaría entonces con la luz de una galaxia que esté detrás del vacío en la línea de observación?

Pues ocurre que existe un efecto lente gravitacional similar al que hemos visto. En el universo observable existen “vacíos” sin apenas galaxias, que miden entre decenas y centenares de millones de años luz de extremo a extremo. Párate un momento y piensa en los números que acabas de leer. ¿Impresionado? Deberías, todos esos vacíos juntos suman más de la mitad del volumen del universo observable. Gráficamente lo tienes en esta imagen de la estructura a gran escala del universo:



La intuición nos dice que si una curvatura positiva tiene un efecto, en este caso el que la galaxia que está detrás aparezca más brillante, una curvatura negativa debería tener el efecto contrario, esto es, la luz de la galaxia debería aparecer más débil. Pues es posible que no sea así. Nuevos cálculos de un grupo de investigadores encabezado por Krysztof Bolejko, de la Universidad de Sydney (Australia), y publicados en Physical Review Letters dicen que los vacíos podrían hacer que los objetos de fondo aparezcan mucho más brillantes de lo que realmente son.

Los investigadores han llegado a sus conclusiones teniendo en consideración un efecto que se solía despreciar en estos cálculos: el efecto Doppler relativista. Este efecto es importante porque los vacíos se expanden más rápido que el conjunto del universo. Este desplazamiento al rojo adicional lleva a sobrestimar la distancia a los objetos que están cerca del lado lejano del vacío, por lo que aparecen más brillantes (no confundamos brillo con luminosidad) de lo que realmente son.

Si esto fuese así, muchas anomalías estadísticas detectadas en la topografía de galaxias y supernovas en las proximidades de grandes vacíos podrían quedar explicadas.  

Referencia:

Bolejko, K., Clarkson, C., Maartens, R., Bacon, D., Meures, N., & Beynon, E. (2013). Antilensing: The Bright Side of Voids Physical Review Letters, 110 (2) DOI: 10.1103/PhysRevLett.110.021302


Esta entrada es una participación de Experientia docet en la XXXVIII Edición del Carnaval de la Física, que acoge Eureka.

miércoles, 25 de julio de 2012

Nanobiomática, la revolución que marcará el siglo XXI



El 15 de abril de 2010 volvía a casa después de asistir a una demostración de un nuevo equipo industrial en una ciudad del centro de Suecia. Cuando llegamos mi compañero y yo al aeropuerto de Estocolmo nos encontramos con el caos. Al parecer un volcán en Islandia, el Eyjafjallajökull, había entrado en erupción y las cenizas que arrojaba a a la atmósfera obligaban a cerrar el espacio aéreo por tiempo indefinido. Nuestro vuelo a Madrid aún no estaba cancelado aunque sí muchos otros. Yo, siguiendo un instinto de supervivencia peculiar, entré en la bien surtida librería a comprarme un par de libros.

Nuestro vuelo fue el último en despegar de Estocolmo antes del cierre del espacio aéreo sueco y nuestro piloto nos llevó a España dando un rodeo por Polonia. En ese tiempo comencé a leer uno de los libros que más me ha hecho pensar en los dos últimos años: The Black Swan, The Impact of the Highly Improbable, de Nassim Nicholas Taleb.

Un cisne negro, citando a Taleb, es un acontecimiento que reúne tres características. Primero, es completamente inesperado, ya que nada en el pasado puede apuntar de forma convincente a esa posibilidad. Segundo, tiene un impacto enorme. Tercero, a pesar de ser inesperado, nuestra capacidad humana para la racionalización a posteriori hace que lo veamos como algo explicable y predecible.

Los cisnes negros son el tipo de acontecimientos que marcan las revoluciones científico-técnicas; pensemos en el descubrimiento de los rayos X o en la penicilina o, y perdonad que aquí cite una afición, los cuasicristales. En las próximas décadas serán los cisnes negros los que marquen la evolución de la ciencia y la técnica concretas. Por definición no podemos saber cuáles serán. Nosotros, en lo que sigue, no vamos a intentar predecir qué desarrollos concretos habrá en la ciencia y la técnica en lo que queda de siglo, ya dejamos a otros que se equivoquen en eso, sino que vamos a explorar brevemente, y sin ánimo de ser exhaustivos, las áreas en las que podrían producirse esos avances. Puede que te sorprendan.

La instrumentalización de la química y el recorrido limitado de la física.

La química, como ciencia que permite conocer el universo, está agotada. No habrá sorpresas químicas relevantes, si bien cabe esperar de ella una enorme variedad de contribuciones prácticas. La química es como una lengua que cuesta dominar: a lo largo de los siglos hemos ido aprendiendo su gramática, su vocabulario, sus modismos, cada uno de estos descubrimientos permitiéndonos conocer más el universo y a nosotros. Pero un idioma, una vez dominado, sirve para expresar ideas. Este es el futuro papel de la química, un instrumento sofisticado que facilitará mucho de lo que sigue.

La física sólo es un poco más estimulante desde esta perspectiva que hablamos. Aunque aún haya mucho que aprender acerca de la estructura fundamental del universo, las máquinas necesarias para realizar esta exploración son cada vez más grandes y caras. Existe un concepto económico crítico para estas situaciones, el de rendimientos decrecientes y, aunque el descubrimiento de una partícula compatible con el bosón de Higgs pueda estimular durante un tiempo breve el imaginario colectivo de los que administran el dinero, no cabe esperar muchas inversiones en algo que tiene de entrada pocas aplicaciones prácticas desde su punto de vista.

En las próximas décadas, salvo hallazgos no previstos en el modelo estándar que nos depare el LHC (más improbables si la partícula descubierta se confirma que, efectivamente, es el bosón de Higgs del modelo estándar), la física fundamental estará centrada en comprender la materia oscura (partículas fundamentales que interactúan con la de materia ordinaria aparentemente sólo a través de la gravedad) y en encontrar ondas gravitacionales (lo que permitiría unir la gravedad, explicada actualmente por la torre de marfil que es la teoría general de la relatividad, con la física cuántica que explica el resto de la física). Para conseguir ambos fines bastarían en principio instrumentos relativamente baratos comparados con un megaacelerador de partículas lineal, por ejemplo.

La otra gran incógnita de la física es la energía oscura, eso que hace que el universo se expanda aceleradamente. A diferencia de las dos anteriores, su resolución requiere de una revolución teórica previa más que de nuevos datos. Y esto entra de lleno en el dominio de los cisnes negros. Puede que ahora, mientras lees esto, un parado esté garabateando, en un parque de Málaga, la que podría ser la solución a este problema.

La revolución nanobiomática.

Para el año 2050, parece bastante probable que sepamos, más allá de la certeza estadística, que la vida es abundante en el universo. El estudio de los planetas extrasolares con nuevos telescopios espaciales parece que es algo que tiene la financiación poco menos que garantizada: la pregunta de si estamos solos en el universo es fácilmente entendible por los administradores y también interesante para ellos.

Un aspecto relacionado es el origen de la vida en la Tierra. La respuesta puede que venga del mejor conocimiento del funcionamiento celular y la identificación de sus partes más primitivas, y de la experimentación, es decir, de la creación de organismos vivos en el laboratorio a partir de moléculas químicas sencillas.

Pero los descubrimientos en biología están entrando en una fase exponencial que nosotros atribuimos a cuatro motivos principales:

  1. La capacidad desarrollada recientemente de secuenciar el ADN rápidamente y en cantidades enormes.
  2. Las mejoras en microscopia, en el sentido más amplio, desde sistemas de tinción a fotografías a nivel atómico, que permiten una mejor comprensión de los procesos celulares.
  3. Las técnicas para el estudio específico del encéfalo y su funcionamiento, probablemente el objeto de estudio científico más interesante del universo.
  4. La asunción generalizada de que la investigación biológica tiene que tener una perspectiva evolutiva.

Cabe esperar que en próximo par de décadas la caracterización genética de todas las especies esté completa. Alrededor del año 2030, dependiendo de la financiación, la mayor parte de la vida conocida habrá sido caracterizada, incluyendo la microbiológica marina o la subterránea profunda (de existir). En el proceso es posible que nos encontremos grandes sorpresas (asumimos que con más fundamento que la vida basada en arsénico).

Lo anterior, completar el álbum de cromos de la vida terrestre, es fascinante e intelectualmente atractivo. Pero esta base de datos genéticos gigantesca y el conocimiento biológico derivado de ella, abriría la puerta a la explotación industrial, lo mismo que ocurrió con la química en el XIX. En esto trabajan ya activamente personas como Craig Venter, ya sea por la vía de crear de vida sintética de diseño, ya por la creación de nuevos organismos transgénicos o directamente por el uso de nuevas especies.

Pero, sin duda, el punto de inflexión lo marcará la combinación de la biología con la nanociencia y la informática: la nanobiomática.

Digámoslo claramente, y citando a un sabio malagueño: la nanotecnología ha tenido un arranque de caballo andaluz y un parón de burro manchego. Durante los últimos veinte años se ha hablado mucho de nanotecnología pero, a fin de cuentas, salvo algunas estructuras que quedan muy espectaculares en fotografía y la alteración de las propiedades de algunos materiales, ya sea por la incorporación de otros o por técnicas de encapsulación, poco más se ha conseguido. Estamos a años-luz de esos ejércitos colaborativos de micromáquinas que prometían los visionarios de los años noventa. Pero esto cambiará cuando se conozca mejor el comportamiento de las células.

Las proteínas, el ARN o el ADN son moléculas grandes y tienen exactamente el tamaño típico de los objetos con los que opera la nanociencia: mayor que el de la química tradicional, pero aún suficientemente pequeños como para que la influencia de las interacciones supramoleculares electrostáticas sea crítica impidiendo que la ingeniería mecánica clásica pueda lidiar con ellas. De hecho, fueron estas interacciones las que arruinaron las predicciones de los visionarios: los engranajes y levas de las micromáquinas se veían alterados por las fuerzas de van der Waals y otros efectos mal comprendidos.

Pero, hete aquí que los sistemas vivos, obviamente, funcionan. Una vez que se analicen apropiadamente aparecerá todo un abanico de aplicaciones tecnológicas: ya sean organismos altamente modificados, o sistemas completamente artificiales que simplemente toman sus fundamentos de la biología, como los robots de Karel Capek, el inventor del término en 1921.

Pero unos robots así requerirían también la intersección de la biología, además de con la nanotecnología, con la informática y la inteligencia artificial, lo que hemos dado en llamar nanobiomática. La unión de una mejor compresión del funcionamiento del cerebro con una capacidad de computación artificial mucho más sofisticada. Las nuevas técnicas para el estudio del cerebro pondrán de manifiesto cómo se organiza el cerebro a nivel celular (conectoma). Los ordenadores, más rápidos y potentes, permitirán modelar como software esa nueva información. Así sabremos cómo funciona el cerebro de verdad, lo que permitirá la construcción de cerebros artificiales que trabajarán con los mismos principios, pero mucho más potentes y sin errores. Cerebros artificiales nanobiomáticos que puede que funcionen conscientemente.

Curiosamente, según la teoría de Taleb, nadie podrá hacer una fortuna apostando a nada de lo anterior: lo previsible no es novedoso realmente. Y es que el futuro lo conformarán los cisnes negros.





martes, 7 de febrero de 2012

Peces de pecera, hijos del vacío.



Somos hijos de una fluctuación del vacío que dio lugar al Big Bang. Nuestra relación con el conjunto del verdadero universo, que nosotros llamamos heteroverso, es la de un pez de pecera con el resto del mundo. ¿Ciencia ficción? No, sólo ciencia.

En los años 90 del siglo pasado se descubrió que el universo no sólo se está expandiendo sino que además lo hace aceleradamente (este descubrimiento fue merecedor del último premio Nobel de física). Sus constituyentes están siendo separados por una misteriosa fuerza repulsiva que viene del espacio vacío: a esto es lo que llamamos energía oscura. Esta repulsión universal puede describirse por un sólo número, la constante cosmológica (véase Einstein y...la pizarra del observatorio de Monte Wilson).

De manera poco rigurosa pero intuitiva podemos considerar la constante cosmológica como el “peso”, la energía si lo prefieres, del espacio vacío. Imaginate en esa época en la que se desconocía la existencia de los átomos y que estás en una habitación en la que se han retirado absolutamente todos los objetos: puedes creer que la habitación está vacía y que no ocurre nada; hoy, sin embargo, sabemos que hay una actividad frenética a nivel atómico. La teoría cuántica nos dice que, sorprendentemente, el espacio vacío es un enjambre de partículas virtuales apareciendo y desapareciendo de la existencia.

El comportamiento de estas partículas es descrito con una precisión extraordinaria por otra teoría: el modelo estándar de la física de partículas. Pero en cuanto hablamos de la constante cosmológica el modelo tiene problemas. Según éste el espacio vacío debería pesar mucho más de lo que sabemos que hace, y la diferencia entre modelo y datos no es pequeña: unos 120 órdenes de magnitud mayor el primero que los segundos. Una predicción terriblemente mala de una, por otra parte, estupenda teoría.

No sólo eso, el modelo estándar de la física de partículas no tiene en cuenta la gravedad. Todos los intentos que ha habido de intentar introducir la gravedad han llevado a resultados matemáticos que no tienen sentido físico. Los científicos llevan mucho tiempo intentando encontrar una “teoría del todo” que pueda acomodar tanto la teoría de partículas (y, por extensión, la cuántica) y la gravedad. Una teoría, aunque realmente habría que decir una colección de teorías, que pretende ser la solución al problema es la teoría de cuerdas. Y la teoría de cuerdas sugiere que nuestro universo no es todo lo que hay. En este punto el término multiverso es muy popular, y quizás tiene connotaciones demasiado melodramáticas, por lo que utilizaremos mejor la palabra heteroverso, por razones que serán evidentes enseguida.

El universo realmente no sería homogéneo, único, sino que podría tener regiones en las que las leyes de la física serían diferentes en cada una. Pero no porque sean diferentes de una forma fundamental, sino porque lo que existe tiene ajustes ligeramente diferentes en diferentes regiones. Veámoslo con un ejemplo. Imagina que eres un pez en una pecera enorme; nunca has conocido nada que no sea la pecera. Para ti es inconcebible un sitio que los peces físicos teóricos llaman aire en el que las leyes de la física son distintas: la velocidad del sonido es diferente, la velocidad de la luz es diferente, la conductividad es diferente, etc. Los peces físicos teóricos también hablan de hielo, roca, metal y muchos más. Son todos diferentes “universos”, pero están en éste, el heteroverso.

El heteroverso es gigantesco, mucho mayor de lo que puedas imaginar, y existen regiones en él abrumadoramente grandes separadas por distancias enormes, que podrían tener sus propias variantes de leyes físicas. A diferencia de los peces físicos teóricos, sus equivalentes humanos no han conseguido descubrir esas otras versiones de las leyes de la física. Una de las razones es que no hemos podido descomponer electrones, protones y neutrones en sus constituyentes y recomponerlos de otra manera, básicamente porque las energías necesarias son demasiado elevadas.

En un heteroverso el enigma de por qué la constante cosmológica es tan pequeña se hace un poco menos enigmático. Nada hace que tenga que ser tan pequeña en principio, de hecho en otras partes del heteroverso podría ser mucho mayor. Ocurre simplemente que no podemos experimentar nunca con/en esas partes. ¿Por qué? Porque en una región del heteroverso con una constante cosmológica demasiado grande no hay cabida para la complejidad, es decir, no pueden desarrollarse observadores. No es sorprendente, por tanto, que nos encontremos en una región con una constante cosmológica pequeña.

El misterio del vacío y la constante cosmológica aún puede hacerse más perturbador, tanto como Darth Vader diciéndole quién era en realidad a Luke Skywalker. Y es que el vacío es nuestro padre.

Un estado vacío, en física cuántica, es aquel que tiene la energía más baja y concuerda con nuestra intuición de vacío, esto es, no contiene partículas. Estar en un estado vacío es como estar en lo más profundo del valle más bajo. También es posible estar en un falso vacío, en nuestra analogía sería estar en lo más profundo de un valle pero no del más bajo. El vacío es lo que llamamos un estado estable, mientras que el falso vacío es un estado metaestable

Metaestabilidad
La idea del heteroverso inflacionario, que forma parte del modelo cosmológico estándar, es que el heteroverso, o alguna parte de él, comenzó en un estado de falso vacío. Este falso vacío lleva aparejada una presión negativa, que convierte la gravedad en una fuerza repulsiva, haciendo que el universo inflacione a una velocidad vertiginosa, doblando su tamaño en tan solo 10-37 segundos. Un símil con mucha limitaciones pero posiblemente útil es considerar la esfera de la imagen: un observador en ella verifica la atracción gravitatoria normal en su superficie pero la misma gravedad en otro marco también hace que la esfera se acelere alejándola (inflacionariamente) de su procedencia.

En nuestro símil, el falso vacío es el valle superior de la imagen, que no es estable. De la misma forma que un núcleo radiactivo se desintegra en algún momento, el falso vacío se desintegra en verdadero vacío, y sube la pequeña colina central. Su cima es el Big Bang.

Pero, como apuntábamos más arriba, la desintegración del falso vacío no tiene por qué ocurrir en todos los lugares al mismo tiempo, evitando que el conjunto del heteroverso se expanda. Más bien podría ocurrir en pequeñas regiones del espacio, creando bolsas que experimentan big bangs locales. Nosotros viviríamos en una de estas bolsas, rodeando a nuestro big bang particular.

¿Quién necesita ficción cuando tiene a la ciencia?

lunes, 19 de septiembre de 2011

El amoniaco, las nubes frías y la formación de estrellas.



La foto que abre esta entrada está tomada con una cámara térmica. Estas cámaras en vez de registrar la luz visible detectan la infrarroja, es decir, el calor. En la imagen vemos una interpretación en colores de los resultados de la emisión en infrarrojo: más oscuro implica más frío. La imagen corresponde a una serpiente enrollada en el brazo de un herpetólogo que retiene su cabeza debajo del pulgar. El punto que queremos ilustrar es que un objeto más frío aparece como oscuro frente a un fondo cálido en las imágenes en infrarrojo. Obviamente si tomásemos la foto en el visible la serpiente podría tener colores diversos incluidos tonos parecidos a los del brazo de su cuidador.

En 1996 se descubrieron áreas en algunas nubes interestelares que en el visible e infrarrojo cercano tenían un aspecto “normal” pero que en el infrarrojo medio aparecían oscuras, por lo que, en un alarde de imaginación, pasaron a llamarse “nubes oscuras en el infrarrojo” (NOIR).



Las NOIR son zonas oscuras en el cielo infrarrojo que contrastan con el fondo brillante que produce nuestra galaxia. Las NOIR parace que podrían ser el paraíso de los astroquímicos: aglomeraciones de gases fríos, densos y ricos en moléculas (léase distintas al hidrógeno molecular). Pero además las NOIR son lugares donde nacen estrellas. Hasta ahora se han venido estudiando las NOIR en las que ya estaba teniendo lugar la formación de estrellas. Si bien esto es muy interesante, aún lo es más el estadio inmediatamente anterior, cuando las NOIR son aún más frías y las protoestrellas están en los primeros pasos.

Una de las principales herramientas en el estudio de estas nubes es la presencia de amoniaco (NH3). En 1969 se descubrió la presencia en grandes cantidades (relativas) de amoniaco en las nubes de gas interestelares. Se descubrió asimismo una correlación entre su presencia y las áreas donde se formaban estrellas, ya que este proceso proporcionaba las condiciones de densidad y temperatura para que el amoniaco emitiera longitudes de onda de radio. Desde entonces la presencia de esta radiación del amoniaco se ha convertido en una prueba diagnóstica para saber si en una nube de gas se están formando estrellas. El problema de esta prueba es que es sólo diagnóstica (sí/no), ya que los radiotelescopios que detectan la radiación del amoniaco tienen muy poca resolución espacial, es decir, la NOIR aparece como un punto sin estructura. Si hubiese resolución suficiente, ¿podría emplearse el amoniaco para determinar la estructura de la NOIR?

Para poder estudiar la estructura de la NOIR empleando el amoniaco como indicador de la presencia de una protoestrella en formación es necesario primero aumentar la resolución. Y esto se consigue usando varios telescopios repartidos espacialmente lo más que se pueda. Y esta es la descripción del Very Large Array Telescope (VLAT) de Nuevo México (Estados Unidos).

Un equipo de investigadores encabezado por Sarah Ragan, de la Universidad de Michigan (EE.UU.), ha empleado el VLAT para estudiar las subestructuras de seis NOIR relativamente jóvenes. Los resultados aparecen publicados en The Astrophysical Journal.

Los investigadores han podido estudiar con suficiente resolución la estructura de las NOIR empleando el amoniaco como guía. Pero, una vez confirmado el principio de funcionamiento, lo más interesante es lo que han encontrado usándolo. Así, el gas está frío (entre 8 y 13 K) y ello significa que las estrellas en formación no lo está calentando por algún motivo. Por otra parte, las señales indican que el gas es muy denso (relativamente); a cualquier químico que se le diga que hay un gas denso a 10K (- 263ºC) lo primero que te dirá es que una parte de él debe haber pasado a estado líquido y, más probablemente, sólido, como le pasa en el espacio al monóxido de carbono. Pues no es el caso: no existen pruebas de la existencia de amoniaco en ningún otro estado que no sea el gaseoso. Finalmente, las NOIR tendrían una gran presión interna (es un gas denso) que impediría que colapsen formando nuevas estrellas. Pero resulta que sí se forman nuevas estrellas, lo que los investigadores explican por la presión de la nube caliente que rodea la NOIR.

Estos resultados son sólo un anticipo de las sorpresas que nos deparará el estudio de las NOIR. Sobre ellas hay muchas más preguntas que respuestas. Y la primera es ¿cómo se forma una bolsa de gas frío rica en amoniaco rodeada de gas caliente?

Referencia:

Ragan, S., Bergin, E., & Wilner, D. (2011). VERY LARGE ARRAY OBSERVATIONS OF AMMONIA IN INFRARED-DARK CLOUDS. I. COLUMN DENSITY AND TEMPERATURE STRUCTURE The Astrophysical Journal, 736 (2) DOI: 10.1088/0004-637X/736/2/163

martes, 26 de julio de 2011

Sin privilegios: confirmación del principio copernicano a escala de gigaparsecs.

Inhomogeneidades a corta distancia en una imagen de campo profundo del Hubble.


La constante de Hubble recibe su nombre por Edwin Hubble, el astrónomo cuyo trabajo demostró que el universo se expande. Esta constante mide la velocidad a la que dicha expansión tiene lugar. Por otra parte, se atribuye a Nicolaus Copernicus la afirmación de que la Tierra no ocupa una posición de privilegio en el Sistema Solar; esta idea se ha extrapolado a lo que se llama el principio copernicano, esto es, que la Tierra no ocupa ninguna posición central, ni especialmente favorecida en un universo por lo demás homogéneo. Según el principio copernicano la medición del valor experimental de la constante de Hubble en cualquier punto del universo debería arrojar el mismo valor.

Pero, ¿qué ocurriría si el principio copernicano no se cumpliese? Imaginemos que la Tierra estuviese en el centro o cerca del centro de una región del espacio interestelar de muy baja densidad de materia (un vacío relativo). La burbuja de vacío que rodea la Tierra estaría rodeada por regiones con una densidad de materia muy superior que tendría el efecto de atraer fuertemente a la materia situada en las cercanías del centro de esa burbuja. Consecuentemente, las estrellas dentro de esta “burbuja de Hubble” se verían aceleradas alejándose de la Tierra mucho más rápidamente que la expansión general del universo. Si nos fijamos tenemos de una forma simple una explicación alternativa al universo con una expansión acelerada que no necesita recurrir a la energía oscura. Este punto hace que los modelos llamados del vacío mantengan su popularidad en algunos ámbitos, a pesar de que la evidencia experimental (indirecta) a favor de la energía oscura nos debería llevar a descartarlos.

Ahora, Pengjie Zhang, del Observatorio Astronómico de Shanghai (China), y Albert Stebbins, del Fermilab (Estados Unidos) demuestran que tanto el modelo del vacío como otros que intentan reemplazar la energía oscura, no son consistentes con los datos observados. Su trabajo aparece publicado en Physical Review Letters.

Los investigadores básicamente se hacen dos preguntas muy sencillas: ¿qué tamaño tendría que tener la burbuja de Hubble para ser coherente con los datos del universo observado?, y ¿qué consecuencias observables tendría una burbuja de este tamaño? La observación del universo muestra que este es homogéneo al menos hasta la escala de los gigaparsecs. Y esto ¿es mucho o poco? Un gigaparsec (1 Gpc) es equivalente a 3.226 millones de años luz; por si el número no nos dice nada consideremos que el límite del universo observable está a 14 Gpc. Por lo tanto, la burbuja tendría un tamaño significativo y una inhomogeneidad así debería hacerse notar. Específicamente, Zhang y Stebbins afirman que, en el caso de que existiese una burbuja de Hubble de ese tamaño, debería poder detectarse como un cambio de temperatura significativo en la radiación de fondo de microondas (RFM), esos fotones que son una reliquia originada sólo 400.000 años después del Big Bang. Pero esas diferencias de temperatura no han sido detectadas por los telescopios que estudian la RFM.

Si bien el trabajo de Zhang y Stebbins no puede descartar violaciones más sutiles del principio copernicano, sí establece una barrera muy difícilmente superable para futuros modelos.

Referencia:

Zhang, P., & Stebbins, A. (2011). Confirmation of the Copernican Principle at Gpc Radial Scale and above from the Kinetic Sunyaev-Zel’dovich Effect Power Spectrum Physical Review Letters, 107 (4) DOI: 10.1103/PhysRevLett.107.041301

viernes, 1 de julio de 2011

El nuevo límite máximo de escala para la espuma espaciotemporal sacude las teorías de gravedad cuántica.



La teoría general de la relatividad (TGR) de Einstein asume que el espaciotiempo es algo liso, continuo. Sin embargo, la teoría cuántica sugiere que el espaciotiempo debería ser una especie de espuma a las escalas más pequeñas. Un trabajo publicado por el equipo de Philippe Laurent, de la Universidad París-Diderot, en Physical Review D [1] establece un nuevo límite máximo a la escala (tamaño) que puede tener esa espuma que es 4 órdenes de magnitud más pequeño que el establecido hasta ahora. La pregunta que este resultado suscita es: ¿Existirá realmente la espuma cuántica? Y a colación, ¿hay alguna teoría del todo que se acerque a la hipótesis de un espaciotiempo liso? Pero vamos por partes.

Analicemos primero el carácter de esta espuma cuántica, un concepto que creó John Wheeler en 1955. A las escalas tan pequeñas que estamos hablando el principio de incertidumbre permite que haya partículas que pasen a existir para luego aniquilarse, sin que se violen las leyes de conservación. En este fenómeno es en el que se basa la radiación de Hawking de los agujeros negros, pero ese es otro tema. Lo importante es que conforme hacemos más pequeño el tiempo y el espacio considerado la energía de las partículas aumenta. Pero sabemos por la TER que masa y energía son equivalentes y por la TGR que la masa deforma el espaciotiempo, por lo tanto, a niveles de la escala de Planck (10-35 m) la distorsión espaciotemporal debe ser de suficiente magnitud como para retorcer el espaciotiempo. Es como si donde tenemos una monocapa de jabón nos ponemos a revolver el agua, el jabón termina formando espuma jabonosa: el espaciotiempo, revuelto por los efectos cuánticos, forma una espuma espaciotemporal. Ahora bien, esto es teoría. ¿Existe alguna forma de medir su existencia? Para eso se emplean los efectos que la espuma tendría sobre el desplazamiento de los fotones.

Un punto clave de la teoría especial de la relatividad (TER) es la denominada invarianza de Lorentz, es decir, el postulado de que todos los obsevadores miden exactamente la misma velocidad de la luz en el vacío, independientemente de la energía que tenga el fotón. El asumir que el espaciotiempo es liso, como decíamos arriba que asumía la TGR, es equivalente a decir que no existe una escala de longitudes que se asocie a esta invarianza. Pero hemos visto que la teoría cuántica afirma que a la escala de Planck (10-35 m) los efectos cuánticos afectan gravemente a la naturaleza del espacio tiempo. Lo que se traduce en distorsiones del espacio que afectarían a cómo se mueven los fotones, tanto a su velocidad como a los planos en los que vibran sus ondas asociadas.

Un resultado anterior obtenido con Fermi en 2009 por Abdo et al. [2] no detectó violaciones de la invarianza a niveles de la escala de Planck, es decir no encontró el fenómeno esperado de una alteración de la velocidad de los fotones. Este fue el primero de una serie de datos que ya pesaban gravemente en contra de las teorías de la gravitación cuántica que incluyen la hipótesis de Wheeler y habían establecido un límite superior de 10-44 m. Ahora Laurent et al. van un paso más allá, usando los datos tomados por INTEGRAL.

Como apuntábamos más arriba uno de los efectos que sobre los fotones puede tener la espuma cuántica es el de alterar los planos de vibración, lo que conocemos como polarización. Cuanta más energía tengan los fotones más evidente será el efecto, igual que a mayor distancia recorrida también será más evidente. Por ello las mediciones deben realizarse usando observaciones astronómicas de rayos gamma con un origen lo más lejano posible.

El equipo de investigadores usó datos recogidos por INTEGRAL durante el brote de rayos gamma más potente del que se tiene noticia para medir la diferencia de polarización de los rayos gamma de alta y baja energía. GRB 041219A, que tuvo lugar el 19 de diciembre de 2004 y se originó al menos a 300 millones de años luz, fue lo suficientemente brillante como para permitir una medición de la polarización lo suficientemente precisa. Los investigadores no encontraron nada de nada dentro de los límites de los datos.

Este resultado implica que, si existe la espuma cuántica, lo debe hacer a escalas iguales o inferiores a 10-48 m y viene a descartar algunas de las versiones de la teoría de cuerdas y deja muy mal parada a la teoría de la gravedad cuántica de bucles. ¿Tendría razón Einstein y el espaciotiempo es liso? Más trabajo para los teóricos.




Referencias:

[1] Laurent, P., Götz, D., Binétruy, P., Covino, S., & Fernandez-Soto, A. (2011). Constraints on Lorentz Invariance Violation using integral/IBIS observations of GRB041219A Physical Review D, 83 (12) DOI: 10.1103/PhysRevD.83.121301

[2] Abdo, A., et al. (2009). A limit on the variation of the speed of light arising from quantum gravity effects Nature, 462 (7271), 331-334 DOI: 10.1038/nature08574

lunes, 27 de junio de 2011

¿De dónde vino el nitrógeno pesado de la Tierra?



La sonda Génesis fue una misión de la NASA que tenía como objetivo traer a la Tierra muestras del viento solar recogidas más allá de la órbita lunar. Todo fue bien excepto en el momento del despliegue del paracaídas, lo que terminó con la sonda estrellándose en el desierto de Utah (Estados Unidos). Los científicos se ponían en lo peor, pero las muestras contenidas en los colectores del Concentrador de Viento Solar sobrevivieron al impacto (véase Los científicos de Génesis por fin tienen algo de suerte)

Los análisis de los elementos nitrógeno y oxígeno han sido publicados en sendos artículos en Science. De esta noticia se ha hecho eco Europa Press y los medios que han reproducido la nota de prensa, que puede verse aquí. Nosotros no vamos a reproducir lo ya dicho pero sí vamos a puntualizar unas cuantas cosas.

- Los estudios indican que la composición isotópica de oxígeno y nitrógeno del Sol difiere de la de la Tierra, de ahí que la conclusión a la que llega Europa Press en su titular sea un espectacular y huero “El Sol y los planetas pudieron formarse de forma diferente”. Hasta donde sabemos (y ese “hasta” es importante) lo diferente es la Tierra.

- La diferencia en la composición isotópica del oxígeno presenta una variación positiva del 7% en el 16O en el Sol. La radiación ultravioleta por sí misma puede explicar esta diferencia en los planetas rocosos, por un proceso denominado autoapantallamiento fotoquímico que afectó al polvo que terminaría formando dichos planetas, enriqueciéndolos en 17O y 18O.

- Pero la diferencia de la composición del nitrógeno ya es otro cantar. La variación es de casi el 40%, en el sentido de que el Sol tiene menos 15N que la Tierra pero sus proporciones isotópicas son muy similares a las de Júpiter. De donde se deduce que la composición química al menos en N era homogénea en el interior y el exterior del Sistema Solar. Por lo que el apantallamiento fotoquímico no nos sirve como explicación.

¿De dónde vino el nitrógeno pesado que hay en la Tierra? Esta es la pregunta. ¿De los cometas? Sería una posibilidad y una forma de diferir la respuesta. ¿De la materia orgánica que llegaba con los meteoritos? También diferimos la respuesta pero se hace más interesante. Imagina que hubiese bacterias en las lunas de Júpiter y que algún asteroide las portase ¿Podríamos reconocer un organismo vivo extraterrestre por su composición isotópica? No hay respuesta correcta de momento, la especulación puede dar lugar a un bonito relato de ciencia ficción.


Imagen:  Formación del Sistema Solar de Panoramic Universe Pictures.


Referencias:

[1] Marty, B., Chaussidon, M., Wiens, R., Jurewicz, A., & Burnett, D. (2011). A 15N-Poor Isotopic Composition for the Solar System As Shown by Genesis Solar Wind Samples Science, 332 (6037), 1533-1536 DOI: 10.1126/science.1204656

[2] McKeegan, K., Kallio, A., Heber, V., Jarzebinski, G., Mao, P., Coath, C., Kunihiro, T., Wiens, R., Nordholt, J., Moses, R., Reisenfeld, D., Jurewicz, A., & Burnett, D. (2011). The Oxygen Isotopic Composition of the Sun Inferred from Captured Solar Wind Science, 332 (6037), 1528-1532 DOI: 10.1126/science.1204636

jueves, 7 de octubre de 2010

La brillante idea del Dr. Hawking


En 1974 Stephen Hawking llegó al convencimiento teórico de que los agujeros negros no podían ser negros, si acaso gris muy oscuro. Un agujero negro se dice que es negro porque se supone que nada, ni siquiera la luz, puede escapar de su atracción gravitatoria. Según Hawking, sin embargo, debido a una de esas rarezas de la mecánica cuántica, un agujero negro debería brillar muy muy débilmente, como los rescoldos en una hoguera a punto de apagarse. Las implicaciones eran tremendas. Al emitir, la que dio en llamarse radiación de Hawking, un agujero negro iría perdiendo gradualmente energía y masa. Si no consigue incorporar más masa terminaría evaporándose completamente, como un charco en un cálido día de verano.

El problema del resultado de Hawking es que, como corolario, predecía que la temperatura típica a la que un agujero negro emite radiación debería ser del orden de una milmillonésima de la radiación de fondo que dejó el mismísimo Big Bang. Por tanto, la comprobación experimental observando la radiación emitida por un agujero negro es imposible, hoy por hoy, en la práctica.

En un artículo [1] subido a arXiv, y aceptado para publicación en Physical Review Letters, un equipo de investigadores dirigido por Daniele Faccio de la Universidad de Insubria (Italia) afirma, sin embargo, que ha detectado la radiación de Hawking en el laboratorio. No necesitaron crear un agujero negro, simplemente dispararon pulsos de luz láser a un bloque de vidrio. Esto creó una región de la que la luz no podía escapar (análoga a una agujero negro) y también su opuesta, una región en la que la luz no podía entrar. Cuando el equipo de investigadores enfocó una cámara apropiada al bloque de vidrio, recogieron el débil resplandor de la radiación de Hawking.

Pero, ¿qué tiene que ver una cosa con la otra? ¿Cómo se relaciona lo que ocurre en un trozo de vidrio en la mesa de un laboratorio con uno de los objetos más espectaculares del universo?

Si una estrella moribunda tiene masa suficiente, puede colapsar y formar una región de densidad infinita llamada singularidad. La gravedad de un objeto así es tan intensa que nada, ni siquiera la misma luz, puede librarse de ella si se le ocurre pasar lo suficientemente cerca de él. El límite a partir del cual ya no hay escape se llama horizonte de sucesos.

En el año 1974 Hawking se paró a considerar qué pasaba justo en el borde del horizonte de sucesos. Según la mecánica cuántica, el espacio vacío es cualquier cosa menos vacío. Más bien es un caldero en ebullición de partículas evanescentes. Durante breves períodos de tiempo, estas partículas pasan a la existencia desde la pura nada, dejando atrás agujeros en la nada. Estos agujeros son sus antipartículas. Poco tiempo después, la partícula y su agujero se recombinan, y vuelve la nada.

Si resulta que el par partícula-agujero aparece en el borde de un horizonte de sucesos, puede ocurrir que la partícula o su agujero crucen el horizonte de sucesos para nunca más volver. Al otro componente del par no le queda otro remedio que hacerse real. Estas partículas, la mayor parte de las cuales son fotones, son las que constituyen la radiación de Hawking, y como los fotones y los antifotones son iguales, los agujeros contribuyen de la misma manera que las partículas.

Pero ¿de dónde viene la energía de estos fotones que han surgido de la nada? Del mismo agujero negro, que de esta forma se evapora gradualmente. La radiación de Hawking une campos tan aparentemente inconexos como la gravitación, la mecánica cuántica y la termodinámica, convirtiéndose por ello un concepto importante de la física teórica de los últimos 30 años.

En 1981 este concepto se vio ampliado. William Unruh de la Universidad de British Columbia (Canadá) puso de manifiesto [2] que los agujeros negros son realmente ejemplos extremos de una clase más amplia de sistemas físicos que pueden formar horizontes de sucesos. Consideremos, por ejemplo, un lago de aguas tranquilas. Si tiramos una piedra veremos cómo las ondas que origina se expanden en círculos en todas direcciones. Si hacemos el experimento cerca de una salida del lago donde el agua comienza a moverse, veremos que las ondas ya no son circulares sino que se ven deformadas en la dirección del movimiento. Si existiese una zona de aguas rápidas en la salida, llegaría un momento en la que la velocidad sería tan alta que las ondas de la superficie ya no pueden ir corriente arriba. Se ha formado un horizonte de sucesos en el curso de agua, las ondas ya no pueden escapar si lo sobrepasan. En la imagen vemos que las perturbaciones del agua que cae no consiguen afectar a la placidez de la del lago de arriba, ya que han sobrepasado el horizonte de sucesos, que está unos metros antes de la salida del agua.

Lo que el equipo de Faccio ha sido capaz de hacer es una versión de este fenómeno en la que intervienen fotones. Se basan en que, conforme el pulso de luz láser se mueve a través de la pieza de vidrio (sílice fundida), cambia el índice de refracción del mismo (la velocidad a la que la luz se mueve a través del material) por tratarse de un medio no lineal (para saber por qué ocurre esto se puede leer a Migui o a Francis). La luz en la proximidad del pulso se ve más y más ralentizada conforme el índice de refracción va cambiando con el paso del pulso.

Para ver cómo un pulso “A” puede actuar como un agujero negro, imagina que lo enviamos tras otro más débil y lento, “B”. Poco a poco A va alcanzando a B, reduciendo la velocidad de la luz en las proximidades del pulso lento, B. Esto ralentizará aún más el pulso lento B hasta que finalmente se desacelere tanto que se pare. Básicamente, el frente del pulso perseguidor A lo ha “capturado”, actuando como el horizonte de sucesos de un agujero negro.

Ahora imagina que enviamos otro pulso “C” tras el A, pero C es más débil. Conforme C se acerca a la cola de A también reduce la velocidad (porque la velocidad de la luz en el vidrio que está atravesando ha sido reducida por el paso de A). Cuanto más se acerca, más lento viaja, y nunca puede terminar de alcanzarlo. La cola de A se ha convertido también, por tanto, en otro horizonte de sucesos. En este caso, sin embargo, impide que las cosas entren más que evitar que salgan. Parece la antítesis de un agujero negro, por lo que podemos llamarlo un agujero blanco.

En el experimento llevado a cabo, no había pulsos B ni C. Su papel lo representaban los fotones evanescentes que surgían de la nada alrededor de A. Conforme el pulso pasaba a través del vidrio, sus horizontes de sucesos podrían haber “barrido” algunos de estos fotones, produciendo la radiación de Hawking con los que dejaban atrás.

Cuando el equipo de investigadores enfocó la cámara y disparó 3600 pulsos del láser, registró un débil resplandor precisamente en el rango de frecuencias que la teoría de Hawking predice. Tras una cuidadosa consideración y descarte de otras posibles fuentes para esta luz, concluyen que han observado realmente la radiación de Hawking por primera vez.

Aunque estos estudios no pueden probar con certeza que los agujeros negros emiten radiación y se evaporan, sí apoyan las ideas que usó Hawking en su razonamiento.

Referencias:

[1]

F. Belgiorno, S. L. Cacciatori, M. Clerici, V. Gorini, G. Ortenzi, L. Rizzi, E. Rubino, V. G. Sala, & D. Faccio (2010). Hawking radiation from ultrashort laser pulse filaments Physical Review Letters arXiv: 1009.4634v1

[2]

Unruh, W. (1981). Experimental Black-Hole Evaporation? Physical Review Letters, 46 (21), 1351-1353 DOI: 10.1103/PhysRevLett.46.1351

domingo, 19 de septiembre de 2010

La falta de rigor en la comunicación de la ciencia: el caso del magnetar en Westerlund 1


Los antecedentes:

La teoría viene sugiriendo que los agujeros negros que se forman a partir de estrellas deben tener como mínimo una masa 25 veces la del Sol (25 MS). Es necesaria una cantidad tan grande de materia para que la estrella colapse en un punto de densidad infinita, llamado singularidad, que está rodeado por una frontera (llamada el horizonte de sucesos) a través de la cual sólo se puede pasar en un sentido: hacia dentro. Las estrellas más pequeñas, las que tienen entre 8 y 25 MS, también terminan colapsando, pero rebotan en forma de supernova para estabilizarse después como estrellas de neutrones, en las que los protones y los electrones de la estrella original se funden para dar lugar a nuevos neutrones adicionales a los que ya había. Las estrellas con menos de 8 MS simplemente crecen para convertirse en gigantes rojas para después reducirse a enanas blancas.

En 2005 un equipo de astrónomos encabezado por Michael Muno [1] [2] [3] encontró lo que supone una pega a este cuadro de la evolución estelar. Esta pega tenía forma de magnetar. Los magnetares son un tipo de estrellas de neutrones que tienen un campo magnético del orden de 10 gigateslas, 1 billón (billón español, 1 millón de millones) de veces más intenso que el de la Tierra. Aunque son raras, encontrar una magnetar no debería suponer mucho revuelo pero es que el magnetar en cuestión debería haber sido un agujero negro dada la masa calculada para la estrella progenitora, 40 MS.

El magnetar se encuentra en un cúmulo de estrellas llamado Westerlund 1 [en la imagen, a la izquierda en visible -ESO-, a la derecha en rayos X -Chandra- con el magnetar marcado], a unos 16.000 años-luz de la Tierra. Estudios anteriores habían demostrado que éste es el más próximo de los llamados supercúmulos estelares, colecciones de cientos de estrellas brillantes y masivas, todas nacidas a la vez. En el caso de Westerlund 1, se calcula que su nacimiento tuvo lugar hace entre 3,5 y 5 millones de años.

La noticia:

Un equipo encabezado por Simon Clark, usando observaciones del VLT (Very Large Telescope) del Observatorio Europeo Austral (ESO, por sus siglas en inglés) del sistema doble eclipsado W13 de Westerlund 1 ha podido calcular las masas de las estrellas que lo componen. Como todas las estrellas de Westerlund 1 nacieron a la vez, este dato supone un límite inferior para la masa del magnetar ya que, al ser la vida de una estrella inversamente proporcional a su masa, la que dio origen al magnetar tuvo la vida más corta (ha sido la primera en evolucionar) y, por tanto, era la de mayor masa del cúmulo. Este resultado [4] supone una confirmación del dato calculado en 2005.

La comunicación:

La oficina de prensa de ESO mezcla pasado y presente en su comunicado de prensa [5], eso sí enfatizando la participación de científicos europeos. Afirma:

“Utilizando el Very Large Telescope (VLT) de ESO en el norte Chile, astrónomos europeos han demostrado por primera vez que un magnetar -un inusual tipo de estrella de neutrones- se formó a partir de una estrella de al menos 40 veces la masa del Sol. El resultado desafía las actuales teorías sobre evolución estelar pues se esperaba que una estrella tan masiva como ésta se convirtiera en un agujero negro, no en un magnetar. Esto genera una pregunta fundamental: ¿cuán masiva tiene que ser realmente una estrella para convertirse en un agujero negro? “

La falta de rigor (por no hablar de abierta manipulación) es evidente, el trabajo de Clark et al. confirma el de Muno de hace 5 años y, como demuestra la lectura de los enlaces, no aporta ningún dato nuevo aparte del método empleado.

Lamentablemente la información se propaga sin ser contrastada tanto en blogs [6] [7] [8] [9] [10] (estos son sólo ejemplos, con algunos desbarrando completamente cuando se salen del guión), como en la prensa profesional [11] [12] que encima, con eso de querer ser originales, titulan sin sentido.

Durante un debate con Roger Penrose en 1994 en el Instituto de Ciencias Matemáticas Isaac Newton de la Universidad de Cambridge (Reino Unido), Stephen Hawking dijo: “ Einstein estaba equivocado cuando dijo que dios no juega a los dados. La consideración de los agujeros negros sugiere que dios no sólo juega a los dados, sino que algunas veces nos confunde tirándolos donde no se pueden ver.” Visto lo visto, otras veces somos nosotros los que les damos una patada para que vayan debajo del sofá.

[1]

Muno, M., Clark, J., Crowther, P., Dougherty, S., de Grijs, R., Law, C., McMillan, S., Morris, M., Negueruela, I., Pooley, D., Portegies Zwart, S., & Yusef-Zadeh, F. (2006). A Neutron Star with a Massive Progenitor in Westerlund 1 The Astrophysical Journal, 636 (1) DOI: 10.1086/499776

miércoles, 1 de septiembre de 2010

¿Varía espacialmente la constante de estructura fina?


Richard Feynman, premio Nobel y un físico extraordinario, se refirió a ella llamándola “número mágico” y a su valor “uno de los jodidos grandes misterios de la física” (“one of the greatest damn mysteries of physics”). El número al que se estaba refiriendo, la constante de estructura fina (CEF), habitualmente representada por la letra griega alfa, es realmente mágico. Si fuera tan sólo un 4% mayor o menor de lo que es las estrellas no podrían mantener las reacciones nucleares que sintetizan el carbón y el oxígeno. Una consecuencia sería que la vida, tal y como la conocemos, no existiría.
La razón por la que alfa tiene el valor que tiene, tan delicadamente ajustado para la existencia de la vida, es un gran misterio físico. Sin embargo, los resultados de una investigación astrofísica podrían haber resuelto una parte importante del enigma. En un artículo [1] que aparecerá en Physical Review Letters (actualmente en arXiv), un equipo dirigido por John Webb y Julian King de la Universidad de Nueva Gales del Sur (Australia) presenta pruebas de que la constante de estructura fina podría no ser constante después de todo. Más bien parece que varía con el punto del universo que se considere. Si estos resultados pasan la revisión, y pueden ser reproducidos, tendrán importantísimas implicaciones ya que sugieren que el universo se extiende mucho más allá de lo que los telescopios pueden observar, y que las leyes de la física varían en él. En vez de que el conjunto del universo esté ajustado finamente para la vida, resultaría que la humanidad misma se encuentra en un rincón del universo que, como le ocurrió a Ricitos de Oro, tiene exactamente los valores de alfa que son apropiados para ella.

En realidad, la CEF está compuesta de otras constantes físicas, cuyos valores se pueden encontrar en cualquier libro de texto de física, aparte de en la Wikipedia. Tenemos el cuadrado de la carga del electrón, dividido por la velocidad de la luz, la constante de Planck, la permitividad del vacío y dos veces pi. El resultado es un número adimensional: las unidades de las constantes originales se cancelan y el resultado queda en un limpio 1/ 137,036, independiente del sistema de unidades que se use.
A pesar de esta estructura, la CEF tiene un significado real. Caracteriza la intensidad de la fuerza entre partículas cargadas eléctricamente. Establece, entre otras cosas, los niveles de energía de los átomos, formados por núcleos de carga positiva y electrones negativos. Cuando los electrones saltan entre estos niveles energéticos, absorben o emiten luz de frecuencias características. Estas frecuencias después aparecen como líneas (oscuras para la absorción, brillantes para la emisión) en un espectro. Cuando hay muchos niveles de energía distintos implicados, como en el caso de una estrella de composición química compleja, el resultado es una estructura con el aspecto de un peine, de muchos dientes muy finos (de aquí viene el nombre de la constante, la estructura fina del espectro). Si la CEF tuviese un valor diferente, las longitudes de onda de estas líneas cambiarían. Y eso es lo que Webb, King y sus colaboradores han encontrado.
La luz que han analizado los investigadores viene de quásares, galaxias extremadamente luminosas (y distantes) cuya emisión de energía es consecuencia de la presencia de grandes agujeros negros en sus centros. Conforme la luz de un quásar viaja por el espacio, pasa a través de nubes de gas que dejan la huella de las líneas de absorción de sus componentes en el espectro. Midiendo las longitudes de onda de una gran colección de estas líneas de absorción y descontando los efectos de la expansión del universo, el equipo de investigadores ha sido capaz de evaluar alfa en lugares que están a miles de millones de años luz de distancia.
Webb encabezó por primera vez un estudio como este hace casi una década, usando 76 quásares que observó usando el telescopio Keck de Hawái. Encontró que, cuanto más lejos se miraba, más pequeña parecía ser la CEF. En astronomía mirar muy lejos significa mirar muy atrás en el tiempo. Los datos por tanto indicaban que alfa era alrededor de un 0,0006% menor hace 9 mil millones de años de lo que es ahora. Esto puede que parezca insignificante, pero cualquier desviación de cero detectable significaría que las leyes de la física eran diferentes allí (y entonces) de las que se aplican en la vecindad de la Tierra.

Un resultado de esta trascendencia necesitaba una verificación independiente usando un telescopio diferente, por lo que en 2004 otro grupo de investigadores realizó observaciones desde el Telescopio Muy Grande (Very Large Telescope, VLT) del Observatorio Europeo Austral en Chile. Este grupo no encontró pruebas de ninguna variación en la CEF. Desde entonces, sin embargo, se han descubierto fallos en este segundo análisis, por lo que el equipo de Webb lo que ha hecho ha sido su propio control con una muestra de 60 quásares observados por el VLT.

Los resultados que han obtenido han sido sorprendentes: cuanto más atrás miraban con el VLT, más grande parecía ser la CEF, en aparente contradicción con el resultado que obtuvieron con el Keck. Pero había que tener en cuenta que los observatorios están en hemisferios diferentes y, por lo tanto, apuntan en diferentes direcciones. La conclusión es que la CEF no varía con el tiempo, sino con el espacio. Cuando analizaron los datos de ambos telescopios desde esta perspectiva encontraron un gran arco en el espacio. A lo largo de este arco, el valor de la CEF cambia suavemente, siendo más pequeño en una dirección y mayor en la otra. Los investigadores calculan que hay menos de un 1% de probabilidad de que un efecto como este pueda surgir por azar. 6 quásares pudieron ser observados con ambos telescopios, por lo que sirvieron para tener una idea clara de los errores de medida.
Si la CEF realmente varía con el espacio, podría representar una manera de estudiar las esquivas “dimensiones superiores” que predicen muchas teorías, pero que están más allá del alcance de los aceleradores de partículas de la Tierra. En estas teorías, las constantes observadas en el mundo tridimensional son reflejos de lo que ocurre en dimensiones superiores. Es habitual en estas teorías que dichas constantes cambien sus valores conforme el universo se expande y evoluciona. Desafortunadamente, el método empleado no permite al equipo decir cual de las constantes que intervienen en alfa podría estar cambiando.
Julian Berengut y Victor Flambaum (uno de los coautores con Webb y King del artículo que nos ocupa), también de la Universidad de Nuevas Gales del Sur, apuntan en un artículo publicado [2] en paralelo que se podría obtener una comprobación independiente a partir de ensayos de laboratorio empleando relojes atómicos sólo ligeramente mejores de los que ya existen. Estos relojes mostrarían cambios en su regularidad conforme el Sistema Solar se moviese a través del universo. Si llegase una confirmación así, rompería uno de los principios fundamentales de la física, la asunción de que las leyes físicas son iguales siempre y en todo lugar.
Referencias:
[1]
J. K. Webb, J. A. King, M. T. Murphy, V. V. Flambaum, R. F. Carswell, & M. B. Bainbridge (2010). Evidence for spatial variation of the fine structure constant Physical Review Letters arXiv: 1008.3907v1

[2]

J. C. Berengut, & V. V. Flambaum (2010). Manifestations of a spatial variation of fundamental constants on atomic
clocks, Oklo, meteorites, and cosmological phenomena Physical Review Letters arXiv: 1008.3957v1

miércoles, 11 de agosto de 2010

Un metamaterial para observar qué ocurre cuando cambia la geometría del espaciotiempo.


Según algunos teóricos, en el momento del Big Bang, nuestro universo puede que no tuviese exactamente tres dimensiones espaciales y una temporal. Igor Smylianinov, de la Universidad de Maryland (EE.UU.), y Evgenii Narimanov, de la Universidad Purdue (EE.UU.), proponen en Physical Review Letters una forma de observar la transición hacia nuestro universo usando los llamados metamateriales, estructuras en las que la propagación de la luz puede ser controlada de forma precisa. Según estos autores, los experimentos en estas estructuras podrían confirmar las predicciones de que un gran flash de radiación acompañaría a los cambios en la estructura del espaciotiempo que podrían haber tenido lugar en el universo primitivo.

A lo largo de la última década se ha profundizado en el conocimiento de los materiales en los que se pueden manipular las propiedades eléctricas y magnéticas a nivel microscópico. Este conocimiento ha llevado a poder hablar por ejemplo de que, en un futuro no demasiado lejano, podrán construirse dispositivos como lentes perfectas o capas de invisibilidad. Algunos resultados se han obtenido ya en esta dirección experimentalmente usando metamateriales, pequeños cables, anillos y otras estructuras que son del orden de magnitud de la longitud de onda de la luz.

Según Smolyaninov y Narimanov estos materiales adaptados podrían usarse para explorar geometrías no habituales del espaciotiempo. Usualmente cuando una onda luminosa atraviesa un material, si la longitud de onda se acorta, su frecuencia aumenta, y esto en todas direcciones igualmente. Pero estos autores describen un metamaterial en el que la relación entre frecuencia y variaciones espaciales de los campos electromagnéticos es muy anisotrópica, es decir, varía mucho con la dirección que se considere. Para algunas configuraciones de campos, se podría incrementar la longitud de onda efectiva en una dirección concreta y la frecuencia global seguiría disminuyendo.

En este artículo los autores afirman demostrar que esta, así la llaman, relación hiperbólica entre las variaciones espaciales y temporales de las ondas electromagnéticas es exactamente la misma que se obtendría en un espaciotiempo que tuviese dos dimensiones temporales y dos espaciales. Una propiedad de esta geometría sería que, para una frecuencia dada, existe un número infinito de modos del campo electromagnético, mientras que en el espaciotiempo “normal” podría haber muchos, pero no un número infinito.

Los investigadores advierten de que estos materiales no permitirían cosas “raras” como máquinas del tiempo (una posibilidad teórica si tienes dos dimensiones temporales), porque las frecuencias a las que tiene lugar el fenómeno son muy limitadas y se ve impedido por las pérdidas de energía, que no se consideran en la teoría. Pero la manipulación de estos materiales sí podría permitir a los experimentadores observar qué ocurre cuando la geometría del espaciotiempo cambia sustancialmente. Por ejemplo, si las muchas dimensiones extras de la teoría de cuerdas se hubiesen “enrollado” repentinamente en el universo primitivo, dejando sólo tres dimensiones espaciales, algunos teóricos afirman que se habría producido un gran flash de radiación, de alguna forma similar al Big Bang. Este flash habría ocurrido porque toda la energía de los infinitos modos en el espaciotiempo de mayores dimensiones se habría liberado de repente.

Smolyaninov y Narimanov proponen construir una estructura que incluya capas de finos cables de galio, que se hace más conductor cuando se funde un poco por encima de la temperatura ambiente. Según sus cálculos, la fusión cambiaría el metamaterial de normal a hiperbólico, por lo que se podría observar un gran flash mientras se enfría.

Referencia:

Smolyaninov, I., & Narimanov, E. (2010). Metric Signature Transitions in Optical Metamaterials Physical Review Letters, 105 (6) DOI: 10.1103/PhysRevLett.105.067402