martes, 28 de agosto de 2007

Asumiendo riesgos.

La mente humana no es un ordenador generalista, sino un rico abanico de adaptaciones para resolver problemas recurrentes desde el punto de vista de la evolución. Al igual que las adaptaciones fisiológicas, las adaptaciones psicológicas evolucionaron para resolver (sólo) problemas en ámbitos particulares y por lo tanto no son necesariamente apropiadas para resolver problemas en otros ámbitos. Desde esta perspectiva, riesgos análogos en la actualidad serán percibidos categóricamente y dispararán algoritmos mentales específicos establecidos a lo largo de la evolución de la especie para resolver problemas repetitivos en la correspondiente categoría o ámbito.


El estudio presentado en Evolutionary Psychology por el equipo del Dr. Kruger de la Universidad de Michigan en Ann Arbor profundiza en esta cuestión mostrando que los riesgos se agrupan en cinco ámbitos:

· Competencia entre grupos. En algún momento de la evolución humana los homínidos adquirieron tal prevalencia en sus ecosistemas que sólo otros homínidos constituían un riesgo para su supervivencia. Conjuntamente con la competencia dentro del grupo la competencia entre grupos constituyó la principal presión evolutiva. Un riesgo moderno en este ámbito sería sentarse vistiendo los colores del Real Madrid en un fondo ocupado por simpatizantes del Barcelona.

· Competencia dentro del grupo. Más compleja que la competencia entre grupos ya que, si bien la lucha está presente, también lo están otras formas de competencia social. La asunción de riesgos en este ámbito es mayor en el caso de los varones ya que el estatus social está asociado a la idoneidad del macho como pareja: las hembras buscarán al macho con poder suficiente para defenderlas a ellas y a su descendencia. En este ámbito, un riesgo moderno sería plantar clara a un jefe para defender a los compañeros, delante de éstos, ante una decisión injusta.

· Emparejamiento y asignación de recursos para la atracción de la pareja. El esfuerzo por emparejarse es una amplia categoría de inversión fisiológica y comportamiento que incluye la competencia específica con congéneres, así como competencia indirecta por bienes y atributos que le hagan a uno atractivo como pareja. Un ejemplo evidente de riesgo que se corre para conseguir pareja es gastarse la mayor parte de tu sueldo (si eres varón) en comprarte un deportivo descapotable.

· Riesgos ambientales. Los ámbitos de riesgo descritos arriba implican generalmente riesgos sociales y asignación de recursos. Los riesgos ambientales, por contra, se asocian a cambios adaptativos provocados por el entorno natural. La asunción de estos riesgos viene de nuestra historia como recolectores y cazadores que además debían evitar o escapar de los depredadores. Ejemplos de riesgos de este ámbito serían explorar una ciudad o un barrio desconocidos, nadar mar adentro hasta llegar a las boyas o tirarse en paracaídas.

· Riesgos para la fertilidad. Este es un ámbito diferente a los demás, habida cuenta de que el objetivo de la evolución no es la supervivencia del individuo sino su reproducción. Los riesgos que ponen en peligro la fertilidad contrastan por ello grandemente con todos los precedentes. Un ejemplo sería esterilizarse de forma que no se tengan hijos y, por lo tanto, disfrutar de mayor cantidad de tiempo y recursos para el ocio.

El estudio del equipo de Kruger muestra que, como era previsible, los riesgos para la fertilidad son los que menos se está dispuesto asumir. Y que, en general, los varones asumen más riesgos que las mujeres.

Así pues, podemos concluir que no existen personas amantes del riesgo y personas que lo evitan por sistema, sino que cada individuo, dependiendo de sus circunstancias y habida cuenta de su carga evolutiva, estará dispuesto a asumir determinados riesgos y a evitar otros.

Original [PDF]: http://www.epjournal.net/filestore/ep05555568.pdf

3 dominios desde hace 3.000 millones de años.

El sistema de tres dominios, propuesto por Woese, es un modelo de clasificación de los seres vivos del planeta Tierra basado en las diferencias en las secuencias de nucleótidos en el ARN de los ribosomas (ARNr) y en la estructura de los lípidos de la membrana de las células y en otros aspectos, como la sensibilidad a los antibióticos. Comparar la estructura del ARNr es especialmente útil ya que las moléculas de ARNr realizan siempre la misma función en todos los seres vivos, por lo que su estructura cambia muy poco a lo largo del tiempo. Por lo tanto, las similitudes y disimilitudes en la secuencia de nucleótidos en el ARNr son un buen indicador de cómo de relacionados están dos células u organismos.

El sistema propone que una célula ancestral común dio origen a tres tipos de células diferentes, cada una representando un dominio. Los tres dominios son Archaea (arqueas), Bacteria (eubacterias) y Eukarya (eucariotas). El Eukarya se divide en cuatro reinos: Protistas, Hongos, Animales y Plantas. ¿Cuándo se separaron los tres dominios?

Como decíamos arriba la estructura química de las membranas celulares distingue los tres dominios. Las arqueas, a diferencia de bacterias y eucariotas, tienen membranas compuestas de cadenas de hidrocarburos ramificadas, entre otras peculiaridades, mientras que las de bacterias y eucariotas poseen ácidos grasos no ramificados.

Los doctores Kenig y Ventura han informado del hallazgo de alcanos alifáticos ramificados con átomos de carbono cuaternario sustituidos de origen biológico. Estos compuestos se encontraron en muestras de pizarra negras extraídas de una mina de oro cerca de Timmins, Ontario (Canadá). En otras palabras, los autores informan de que han encontrado restos diferenciados de arqueas de 2.700 millones de años, lo que viene a confirmar que la estimación que se hacía hasta ahora, de unos 3.000 millones de años, sigue siendo adecuada a la hora de establecer la fecha de separación de los tres dominios.

lunes, 27 de agosto de 2007

Markarian 501, ¿violación de la relatividad y test de la teoría de cuerdas?

Un núcleo galáctico activo es una región compacta en el centro de una galaxia que tiene una luminosidad mayor de la normal en todo o en parte del espectro electromagnético. La radiación de estos núcleos se piensa que proviene del crecimiento por acreción de un agujero negro supermasivo en el centro de la galaxia. Los núcleos galácticos activos son una de las fuentes persistentes más luminosas de radiación electromagnética del universo.

En algunos casos, los núcleos galácticos activos emiten chorros de partículas en la línea de visión del observador, lo que explica su alta luminosidad observada, su variación muy rápida y su alta polarización (comparada con la de los quasars). Estos núcleos se denominan blazars. Markarian 501 es un blazar que emite rayos gamma de tal energía que es un blazar TeV (tera electrón voltio).

El equipo del telescopio de rayos gamma MAGIC estudió dos estallidos de rayos gamma a mediados de 2005 en el núcleo de Markarian 501. Compararon la radiación en dos rangos de energía, de 1,2 a 10 TeV y de 0,25 a 0,6 TeV. El primer grupo llegó a la Tierra cuatro minutos más tarde que el segundo. Este resultado, de confirmarse que no se trata de un fenómeno en el origen, tiene una trascendencia enorme. ¡Enorme!

Si la radiación de mayor energía efectivamente llegó más tarde esto significaría que se viola uno de los principios subyacentes de la teoría especial de la relatividad, el que afirma que la radiación se desplaza en el vacío a igual velocidad independientemente de su frecuencia (léase energía).

El cuadro sería el siguiente: las altas energías podrían causar fluctuaciones a pequeña escala en la forma del espaciotiempo, que actuaría en forma de lente subatómica. Cuanto mayor sea la energía del fotón, más inducirá ese efecto lente y cubriría largas distancias más lentamente.

Estaríamos ante la posibilidad de probar experimentalmente la teoría de cuerdas, la gravedad cuántica de bucles y otras teorías que puedan surgir.

domingo, 26 de agosto de 2007

¿Negentropía en Marte?

Llegará un día en el que el universo no tendrá estructura alguna, consistiendo tan solo en átomos dispersos con una energía homogénea. Esta imagen, válida si el universo no es cíclico, corresponde al máximo de entropía. Se suele igualar la entropía a una medida del caos o desorden, cuando en realidad es la distribución de la energía hacia un estado de uniformidad o, por ponerlo en una frase melodramática, la tendencia hacia el equilibrio cósmico.

Existe sin embargo un fenómeno que se opone a esta tendencia universal, la vida. Fue Erwin Schrödinger quien dijo que las cosas vivas son capaces de posponer esta tendencia. Según sus palabras, la materia viva es aquella que evita la desintegración en el equilibrio. Acuñó un término para la vida, negentropía, entropía negativa. Cuando morimos, los átomos que nos constituyen terminan dispersándose y siendo reciclados por la Tierra, sometidos de nuevo a la evolución de la entropía del Universo.

¿Sería ésta una definición suficiente de vida? Claramente no, existen ejemplos muy evidentes, como la formación de cristales, en los que la entropía disminuye (la del sistema, la del universo aumenta siempre) y que no consideramos cosas vivas. Una condición que podría añadirse a la definición de vida sería que la materia viva resiste al destino que le marca la entropía interaccionando con el entorno, del que incorpora nutrientes (energía) y al que excreta los subproductos de desecho, es decir, la materia viva tendría un metabolismo.

La consideración del metabolismo como condición para la vida hizo que se incluyeran varios experimentos en el Viking Lander, en 1976, para detectar los productos de desecho del metabolismo de posibles microorganismos en el suelo marciano. Uno de ellos fue el Experimento de Emisión Marcada (Labeled Release Experiment) que consistió en proporcionar un líquido (presuntamente) nutritivo a una muestra de suelo marciano. La lógica del experimento dice que, si existen microorganismos (que metabolicen este nutriente en concreto), debería ser posible detectar los productos de desecho de su metabolismo. Para saber que los gases (se esperaba la emisión de CO2) provenían del nutriente, éste estaba marcado radioactivamente, es decir, se podían distinguir los átomos de carbono radioactivo de los compuestos del nutriente de los átomos de carbono habituales (no radiactivos) por medio de un detector especial. Una vez inyectado el nutriente, el CO2 detectado aumentó rápidamente, para entusiasmo de los científicos. Después se descubrió que la química del suelo marciano era capaz de descomponer el nutriente, dando CO2. Los resultados fueron etiquetados como inconcluyentes.

Los datos del Viking Lander siguen siendo analizados 30 años después. Otro experimento incluido en la misión fue el Experimento de Intercambio de Gases (Gas Exchange Experiment). Basado en la misma lógica del anterior, consistía en la incubación de una muestra de suelo en una cámara con atmósfera controlada, en la que se monitorizaban los niveles de CO2 y O2. En su día se estimó que los resultados no revelaban ningún cambio indicativo de vida. Sin embargo ayer, ante el Congreso Europeo de Ciencias Planetarias el Dr. Joot Houtkooper, de la Universidad de Giessen (Alemania), expuso una interpretación de los datos de este experimento según la cual podría haber vida en Marte. La hipótesis de los doctores Houtkooper y Schulze-Maruch, de la Universidad Washington, es que las células responsables de los cambios en la composición de los gases están basadas en una mezcla de agua oxigenada y agua. Una mezcla como la de la hipótesis tendría un punto de congelación de -56ºC, suficiente para sobrevivir en algunas zonas del helado suelo marciano. Los investigadores han calculado la cantidad de biomasa en el suelo marciano en función de los datos que tienen, proponiendo un valor de 0,1% en peso.

Una vez más una hipótesis que, recordemos, habrá que contrastar e investigar, plantea más preguntas de las que responde. Esperemos que la misión Phoenix, que llega a Marte en mayo del año que viene, y cuyos instrumentos pueden detectar esa proporción de biomasa, nos ayude a resolver algunas de ellas.

Science Daily: http://www.sciencedaily.com/releases/2007/08/070824122441.htm

viernes, 24 de agosto de 2007

Cómo colapsar paso a paso y sobrevivir para contarlo.

La evolución irreversible de un sistema microscópico al ser medido es un aspecto fundamental de la teoría cuántica. Desde un estado inicial que presenta incertidumbre cuántica en el observable que vamos a medir, el sistema evoluciona a un estado en el que el observable se conoce con precisión. Su valor es aleatorio con una probabilidad determinada por el estado inicial del sistema. La evolución que provoca la medición (conocida como “colapso del estado”) puede ser progresiva, acumulando los efectos de cambios de estado elementales. En un artículo aparecido ayer en Nature [ver enlace abajo] el equipo dirigido por Michel Brune y Serge Haroche, de la Universidad Pierre y Marie Curie de París, anuncia la confirmación experimental de este fenómeno empleando para ello un ensayo de no-demolición cuántica, cuyo método fue desarrollado por los autores en 1999. El experimento usa átomos para contar el número de fotones en una caja sin destruirlos.

Los fotones se detectan tradicionalmente convirtiendo su energía en una señal eléctrica, que destruye el fotón en el proceso (efecto fotoeléctrico). Un problema adicional en las mediciones cuánticas es que si una variable, por ejemplo la posición, se mide con precisión, la consiguiente imprecisión en una variable incompatible (por el principio de incertidumbre de Heisenberg), en el ejemplo sería el momento, significará que futuras medidas de la posición darán diferentes resultados. Para los fotones la intensidad (número de fotones) y la fase están relacionadas por el principio de incertidumbre.

El método consiste en seleccionar con un láser átomos de rubidio con una velocidad bien definida para después llevarlos a un estado Rydberg. Un estado Rydberg corresponde a poner un electrón en una órbita cuyas dimensiones son muy grandes comparadas con el tamaño del resto del átomo (del ión diríamos si el electrón no estuviese todavía ligado al átomo). Un átomo en este estado se vuelve extremadamente sensible a las influencias externas y tiene una enorme probabilidad de interaccionar con la radiación de microondas. Los átomos así preparados se introducen en una cavidad de niobio (cuyas paredes son espejos superconductores) que puede almacenar fotones de microondas durante 1 milisegundo. Si no hay fotón en la cavidad no le pasa nada al átomo, pero si lo hay, la fase de la función de onda que describe el átomo cambia, porque el electrón externo cambia de estado, y esto puede ser detectado usando técnicas de interferencia. El ritmo de oscilación entre estados de los electrones de un átomo dependerá por tanto del número de fotones.

En el experimento se mantuvieron a los fotones de un campo coherente de microondas dentro de la cavidad. Como indicábamos arriba, el hecho de ser coherente (misma fase) implica que se desconoce el número de fotones antes de la medición, diremos que el sistema está en un estado de superposición del número de fotones. Para cada medición del ritmo de oscilación de un átomo los investigadores obtienen una respuesta diferente acerca del número de fotones que hay. Con una cantidad considerable de mediciones la distribución de valores del número de fotones empieza a centrarse en un número particular, mostrando que el sistema está colapsando a un estado bien definido. Estamos observando el colapso paso a paso del estado, sin destruir los fotones.

Y como predice la naturaleza probabilística de la mecánica cuántica, si se repite el procedimiento de medida, este estado (este número de fotones) puede muy bien ser diferente.


Original: http://www.nature.com/nature/journal/v448/n7156/abs/nature06057.html
Physics World: http://physicsworld.com/cws/article/news/30913#container

jueves, 23 de agosto de 2007

Resistiendo la tentación (si eres mono)

La mayoría de los niños recurren a este truco mental: Cuando se les pide que esperen pacientemente para hacer algo que desean (ver la televisión, por ejemplo) buscan entretenimiento con un juguete o un libro. Los investigadores han probado recientemente que los chimpancés también recurren a distracciones similares, un descubrimiento que, de nuevo, contribuye a difuminar la frontera cognitiva y conductual entre los humanos y otros primates [ver “Petróleo, cacahuetes y abstracción”, enlace abajo].

Los experimentos que han llevado a esta conclusión han sido realizados por Theodore Evans y Michael Beran de la Universidad Estatal de Georgia en Atlanta. Pusieron a cada uno de los cuatro chimpancés objeto de estudio frente a un contenedor conectado a un dispensador de chucherías. Los chimpancés podían alcanzar el contenedor en cualquier momento si querían y comerse todas las chucherías almacenadas, pero esto significaba parar el dispensador, que dejaba de suministrarlas. Los chimpancés reaccionaron retrasando la recompensa a su gusto, de forma que podían conseguir más chucherías.

En otro experimento usando el mismo dispositivo se les suministró unos juguetes a los chimpancés. Igual que los niños, los chimpancés aguantaban durante más tiempo la situación distrayéndose con los juguetes. Para comprobar que jugar con los juguetes era efectivamente una técnica para distraerse, los investigadores modificaron el dispositivo de forma que los chimpancés podían ver cómo se llenaba el contenedor pero no podían alcanzarlo. La mayoría de los primates pasaron más tiempo jugando con los juguetes cuando podían acceder al contenedor que cuando no, lo que indica que juegan como estrategia deliberada para controlar el impulso de comer chucherías.

Frans de Waal [ver “¿Y si la moral fuese innata?”, enlace abajo], primatólogo de la Universidad Emory en Atlanta, afirma que este estudio llena otra “brecha mental” entre los humanos y las otras especies, que se añade a la lista de logros cognitivos por animales que incluye el uso de herramientas y la planificación del futuro. Asegura de Waal que “en humanos clasificaríamos esta conducta como una forma de auto consciencia en relación con la tentación: el conocimiento de que caerás en ella como no te distraigas”. Los autores indican que el estudio también sugiere una auto consciencia en animales más compleja de lo que se suponía.

Nuevas preguntas surgen a partir de este estudio. La más inmediata: ¿Hasta qué punto son conscientes los animales de su propia psicología? ¿Son conscientes de que están siendo tentados de la misma manera en que algunos humanos somos conscientes de que se nos está tentando con el posicionamiento estratégico de chucherías en los cajeros de los supermercados?



Petróleo, cacahuetes y abstracción: http://cesartomelopez.blogspot.com/2007/07/petrleo-cacahuetes-y-abstraccin-spinoza.html
¿Y si la moral fuese innata?: http://cesartomelopez.blogspot.com/2006/11/y-si-la-moral-fuese-innata.html
ScienceNow: http://sciencenow.sciencemag.org/cgi/content/full/2007/822/2?rss=1
Original: “Chimpanzees use self-distraction to cope with impulsivity” aparecerá en “Biology Letters”

miércoles, 22 de agosto de 2007

El primer metabolito ligado al sexo.


El cangrejo de la imagen es un individuo ginandromorfo lateral de cangrejo azul (Callinectes sapidus) y su análisis ha sido fundamental para comprobar la existencia de un metabolito exclusivo de los machos. Es la primera vez que se encuentra tal cosa en un animal y este hallazgo puede tener multitud de implicaciones como discutimos más adelante.

Un ginandromorfo lateral (término éste más propio de la entomología) es un individuo que presenta morfología femenina en una mitad de su cuerpo (en este caso, la que corresponde a la pinza roja) y masculina en la otra (la azul). Investigadores de la Universidad de Illinois en Chicago han podido comprobar en este individuo que existe una ruta enzimática que genera un metabolito concreto, el AEP (fosfonato - no confundir con fosfato - de 2-aminoetilo) que es exclusiva de los machos. En este individuo se encontró AEP en la parte masculina, pero no en la femenina y, dado que ambiente y alimentación eran los mismos, la conclusión es evidente.

Los investigadores, liderados por Robert Kleps, habían estudiado tejidos de las branquias, no correspondientes a órganos sexuales por tanto, de cangrejo azul de 6 años distintos, recogidos en dos zonas de marisqueo distintas. La técnica empleada para el análisis fue la resonancia magnética nuclear de fósforo 31. Los resultados obtenidos eran consistentes para todos los cangrejos, los machos tenían AEP pero las hembras no.

¿Qué trascendencia tiene el descubrimiento? Se da por sentado que la bioquímica de machos y hembras es la misma. Basándose en este supuesto la farmacología no distingue entre varones y mujeres: la aspirina, los suplementos vitamínicos o la insulina son iguales tanto para unos como para otras. La principal causa de dimorfismo sexual serían variaciones en la proporción de hormonas presentes en un organismo, estando todas las hormonas presentes tanto en machos como en hembras. También se encuentran diferencias en los niveles de metabolitos de bajo peso molecular en los aminoácidos en circulación, lípidos e hidratos de carbono y en el tejido cerebral. Sin embargo, este hallazgo nos dice que hay, al menos, una excepción a esta homogeneidad bioquímica entre sexos, el cangrejo azul.

La presencia de un metabolito puede afectar el desarrollo, la anatomía y la bioquímica de un animal. Las diferencias entre sexos en lo que respecta a la susceptibilidad a enfermedades o esperanza de vida pueden ser debidas a la presencia o ausencia de un metabolito.

Si un animal tiene un metabolito exclusivo de un sexo, podría ser que otros lo tuviesen, incluido el hombre. Este descubrimiento abre paso pues a dos líneas de investigación: la detección de metabolitos ligados al sexo en otras especies y la determinación de la ruta de síntesis del AEP y su función en el metabolismo.

martes, 21 de agosto de 2007

¿Sabemos porqué brilla el Sol? En parte, sí


En las estrellas del tamaño del sol, la mayor parte de la energía se produce mediante una cadena compleja de reacciones nucleares que convierten el hidrógeno en helio. Comenzando con los protones de los núcleos de hidrógeno, la cadena puede seguir diferentes rutas [ver imagen arriba] para terminar en la formación de un núcleo de helio y la producción de luz solar.

Los pasos a lo largo de dos de estas rutas requieren la presencia del isótopo berilio-7 (7Be en el gráfico), y los físicos han calculado que estos pasos serían responsables de entre el 10 y el 15% de los neutrinos solares. Las limitaciones de orden técnico habían impedido comprobarlo hasta ahora.

El detector gigante Borexino del laboratorio Gran Sasso, que se encuentra a más de un kilómetro bajo tierra, ha eliminado esas limitaciones, permitiendo al equipo investigador, integrado por más de cien científicos de diferentes instituciones, observar los neutrinos de baja energía, también llamados sub-MeV (por debajo de 1 megaelectrón-voltio), con un valor de 0,862 MeV.

Los neutrinos raramente interaccionan con otras formas de materia, lo que les hace ideales para investigar el interior del sol pues emergen de él prácticamente tal y como se crearon. Mientras no ha existido la posibilidad técnica de detectar neutrinos no ha sido posible más que teorizar sobre las reacciones de fusión en el interior del sol, sin comprobación experimental. Los resultados obtenidos muestran que la idea que se tenía de los procesos nucleares que hacen que el sol brille es esencialmente correcta, al menos en la parte de la cadena de reacciones en las que interviene el berilio-7. Esta parte de la cadena justifica un porcentaje minoritario de la energía, de acuerdo, pero hace más probable que los otros procesos se ajusten a lo predicho.
.
Los resultados también dan respuesta a otras cuestiones. El ultrasensible detector ha confirmado las teorías con respecto a porqué los experimentos previos habían encontrado menos neutrinos solares de los previstos a energías más altas, un problema que surgía de la extraña capacidad de las partículas de oscilar entre una forma y otra según viajan por el espacio. Mientras que el sol sólo produce neutrinos electrónicos, éstos pueden cambiar a neutrinos muónicos o tauónicos, que son más difíciles de detectar.

Princeton University: http://www.princeton.edu/main/news/archive/S18/76/21C35/index.xml?section=newsreleases
Original: No se ha publicado aún (aparecerá en Physics Letters B)
Cadena protón-protón (wikipedia): http://es.wikipedia.org/wiki/Cadenas_protón-protón

lunes, 20 de agosto de 2007

Repensando la materia oscura.

Hablábamos ayer de lo importante que es no dar nada por sentado en ciencia y hoy tenemos un ejemplo magnífico. Si hay algo claro en la materia oscura es que prácticamente no sabemos nada de ella. Sólo tenemos hipótesis de trabajo, que probablemente tengamos que revisar varias veces más antes de que se aproximen a la realidad observacional.

Nuevas imágenes del Observatorio de Rayos X Chandra de la NASA combinadas con registros de dos telescopios ópticos terrestres han dado como resultado un nuevo enigma: una colisión entre dos cúmulos gigantes de galaxias parece haber separado a las galaxias de sus núcleos de materia oscura.

La existencia de la materia oscura se postuló hace 75 años, cuando los astrónomos se dieron cuenta que la masa de la Vía Láctea no justificaba la velocidad de sus estrellas. Desde entonces, los científicos han buscado pruebas de la existencia de esta misteriosa sustancia [ver “Luz sobre la materia oscura”] que se supone compone el 25% del universo; la materia visible supondría un 5% y la energía oscura el resto. Su presencia parece necesaria para mantener a una galaxia unida. O eso se pensaba, porque los resultados del Chandra y sus homólogos en tierra muestran, aparentemente, una zona gigantesca de materia oscura y un grupo de galaxias yéndose cada una por su lado.

Las imágenes muestran cientos de galaxias fundiéndose en un cúmulo enorme llamado Abell 520, localizado a unos 2.400 millones de años luz. El Dr. Mahdavi, líder del equipo que ha realizado el estudio, ha podido determinar que algunas galaxias se han desplazado hasta 2 millones de años luz de sus masas de materia oscura, tan lejos que la gravedad ya no volverá a unirlas. Casi tan increíble es que las nubes de gas interestelar caliente que antes estaban en el interior de las galaxias (calentado por la colisión este gas emite rayos X) ha sido retenido por la materia oscura en vez de ser lanzado al espacio.

Es evidente que se necesitan nuevas observaciones antes de intentar sacar conclusiones. De momento, el propio Mahdavi estudiará Abell 520 con el Telescopio Espacial Hubble en busca de nuevas pistas.

La frase profética del astrónomo Arthur Eddington en referencia al universo sigue siendo válida: “Es más extraño de lo que podamos imaginar.”

domingo, 19 de agosto de 2007

¿Por qué el agua es azul?

¿Por qué el agua es azul? Algunos responderán que porque refleja el color del cielo, que a su vez se produce por la dispersión de la luz; otros, los menos, que por las impurezas que contiene; entre estos últimos, alguno habrá que llegue a mencionar la presencia de compuestos de coordinación del ion cúprico.

Pero, ¿qué importancia tiene preguntarse por el color del agua? La tiene y mucha. La ausencia de una respuesta clara, directa y comprobada es el típico ejemplo de la falta de mentalidad científica imperante en nuestra sociedad, incluida, paradójicamente, la propia comunidad científica. Se adivina fácilmente que la respuesta del ion cúprico no la da el ciudadano medio.

El quid de la mentalidad científica es la curiosidad. El científico, no nos referimos sólo al científico profesional, ha de ser una persona curiosa, pero no con una curiosidad cualquiera, sino inquisitiva y crítica, que no acepta fácilmente la primera respuesta que se le da. El verdadero científico comprueba, no sólo mediante observaciones o experimentos sino también con búsquedas bibliográficas, que lo que se afirma es cierto. Y este cuestionamiento debe ser permanente.

Esta falta de rigor es aún más grave en los científicos profesionales. Un ejemplo paradigmático lo hemos visto hace poco en la entrada en este blog titulada “El misterio del Rectángulo Rojo”. En las declaraciones que recogen las distintas notas de prensa, los distintos grupos de investigación que plantean las distintas hipótesis hablaban de sus modelos como si hubieran resuelto el misterio, cuando en ningún caso existe confirmación experimental. Aunque siempre nos quedará la duda de si son los gabinetes de prensa los que intentan dar a la noticia todo el bombo posible, los científicos deberían imponer su criterio deontológico, si lo tienen.

Este abandono del sentido común, la alta especialización, en muchos casos analfabeta de todo lo que no sea su campo, es lo que hace que preguntas tan sencillas como “¿por qué el agua es azul?” se sigan contestando con lo primero que viene a la cabeza tanto por científicos como por el ciudadano de a pie y, en algunos casos, que estas respuestas peregrinas se incluyan en los libros de texto.

Al menos que el lector de este blog lo sepa: el agua es azul, ¡atención!, ¡porque es azul! El agua debe su azul intrínseco a la absorción selectiva de la parte roja del espectro visible de la luz. Se trata de uno de los pocos ejemplos, si no el único, en el que la coloración de una sustancia no artificial se debe a transiciones vibracionales de la molécula. En el resto de los casos el color se produce por interacciones entre los fotones y los electrones de las moléculas.

Braun & Smirnov: http://www.dartmouth.edu/~etrnsfer/water.htm
El misterio del Rectángulo Rojo: http://cesartomelopez.blogspot.com/2007/08/el-misterio-del-rectngulo-rojo.html

sábado, 18 de agosto de 2007

Conexiones y redes: de niño a adulto.

Cuando un niño alcanza la edad de 6 años su cerebro ya tiene el tamaño que tendrá cuando sea adulto. Sin embargo nadie se atreverá a afirmar que un niño de 6 años piensa como un adulto. Entre otras, hay dos características que definen la forma de pensar adulta, cuya ausencia además hace que llamemos infantil al comportamiento del adulto que carece de ellas. Nos estamos refiriendo a la visión del largo plazo, el pensar en el futuro y evaluarlo, y establecer el contexto de los hechos que se memorizan. Un ejemplo de lo primero es ofrecer al niño de 6 años la posibilidad de una chocolatina ahora o dos dentro de una hora; otra es pedirle que nos cuente las circunstancias en la que le regalaron ese libro de cuentos que le gusta tanto.

Si el tamaño del cerebro es igual, debe haber algunas diferencias en su funcionamiento o estructura que expliquen estos comportamientos dispares. Las hay, y son unas diferencias que los aficionados a los ordenadores entenderán muy bien: en el adulto la transmisión de datos y conexiones son de mucha mejor calidad por un lado y, por otro, las redes de conexiones son independientes.

Un lugar muy común al hablar de inteligencia es relacionarla con la abundancia de sustancia o materia gris. El cerebro del niño de 6 años es básicamente materia gris. Conforme su cerebro madura la materia gris desaparece a diferentes velocidades en diferentes partes del cerebro. Las células cerebrales forman materia o sustancia blanca al recubrir las glías los axones de las neuronas con una capa de mielina, de la misma forma que un cable de cobre se recubre con un aislamiento plástico, evitando de esta forma la pérdida de señales eléctricas en su recorrido por las células nerviosas. Conforme la materia gris disminuye, la blanca aumenta. Esto explica que el cerebro pase a ser un órgano de, fundamentalmente, conexiones a corta distancia a uno con muchas conexiones a larga distancia. La prueba experimental de este hecho la acaba de aportar el equipo de Bradley Schlaggar de la Universidad Washington en San Luís. [1]

Steven Petersen ha propuesto que las 39 regiones cerebrales implicadas cuando se realizan determinadas tareas realmente trabajan en dos redes, la cíngulo-opercular y la frontoparietal. Basándose en los resultados de Petersen, Schlaggar y su equipo investigaron la evolución de estas dos redes. Sus resultados indican que en los niños la cíngulo-opercular (responsable de la durabilidad) está sujeta a la frontoparietal (responsable de la adaptación rápida), lo que explicaría el cortoplacismo de los niños. Estas dos redes se van separando conforme el niño crece y en el adulto son prácticamente independientes.

Por otra parte, respecto a la memorización del contexto de los acontecimientos, los estudios de la Dra. Noa Ofen del Instituto de Tecnología de Massachussets han demostrado que, mientras el lóbulo temporal medio (un área implicada en la formación de recuerdos) se activa tanto en niños como adultos cada vez que se les muestra una imagen, sólo los adolescentes comienzan a presentar actividad simultánea del córtex prefrontal lateral (un área implicada en la comprensión), mayor cuanta más edad, con el máximo en los mayores de 18. La Dra. Ofen también estudió los porcentajes de materia blanca, encontrando una correlación positiva entre materia blanca, recuerdo de detalles y edad.

Original (Schlaggar/Petersen): http://www.pnas.org/cgi/content/abstract/104/33/13507
MIT (Ofen): http://web.mit.edu/newsoffice/2007/memory-0805.html
[1] Esto implica la caida del mito de la materia gris. Sobre el papel de las glías en el cerebro puede consultarse “Usamos el 100% del cerebro”: http://cesartomelopez.blogspot.com/2007/08/usamos-el-100-del-cerebro.html




viernes, 17 de agosto de 2007

Superluminal, pero no tanto.

Los comentarios de algunos lectores sobre la noticia de ayer nos han hecho ver que aquí hay gato encerrado. La noticia original que publica mañana (sí, mañana) New Scientist incluye un comentario de Aephraim Steinberg, un experto en óptica cuántica de la Universidad de Toronto, que es muy esclarecedor.

El Dr. Steinberg no duda de los resultados de Nimtz y Stahlhofen. Sin embargo, Einstein puede descansar tranquilo, dice. Los fotones no violan la relatividad: es sólo una cuestión de interpretación.

Steinberg explica las observaciones de Nimtz y Stahlhofen mediante una analogía con un tren de alta velocidad de 20 vagones que parte de Chicago con destino Nueva York. El cronómetro se pone en marcha cuando el centro del tren deja la estación, pero el tren va dejando vagones en cada estación, con lo que su centro se mueve hacia delante. Por lo tanto cuando el tren llega a Nueva York con sólo 2 vagones, sin haber excedido la velocidad fijada, un observador en la estación puede afirmar, mirando el cronómetro, que parece que esta gente ha sobrepasado la velocidad autorizada. Han llegado antes de lo que deberían, pero ocurre que solo observa a los que salieron en cabeza, que siempre viajaron a la velocidad autorizada.

Queda pues claro que el uso de la noción de velocidad de señal que hacen Nimtz y Stahlhofen difiere de la de Einstein y que sus resultados experimentales están completamente de acuerdo con la causalidad de Einstein en el sentido ordinario. Esto fue señalado ya por Hegerfeldt de la Universidad de Göttingen en 2001.

La cuestión que se plantea aquí y ahora es si New Scientist está recurriendo al amarillismo para atraer lectores. El origen de la noticia de ayer está en un adelanto de la publicación del número de mañana de NS del que se hicieron eco distintos medios británicos (y nosotros). En ese adelanto no se decía nada de los comentarios esclarecedores del Dr. Steinberg, que nosotros hemos conocido por otras fuentes, ni de que los criterios de Nimtz y colaboradores son conocidos desde hace años.

New Scientist: http://www.newscientist.com/
Hegerfeldt: http://arxiv.org/PS_cache/quant-ph/pdf/0109/0109044v1.pdf

Nota: No podemos dejar de mencionar a orubi1969 de los foros de http://www.100cia.com/, que se dio cuenta del subterfugio inmediatamente y nos proporcionó, a los que frecuentamos esos foros, una lección magistral que incluía la referencia al trabajo de Hegerfeldt. Resultado de esa lección es esta entrada. Gracias, maestro.

jueves, 16 de agosto de 2007

Superluminal, más rápido que la luz.

Un par de físicos alemanes aseguran haber roto la barrera de la velocidad de la luz, un logro que revolucionaría nuestra comprensión del tiempo y del espacio.

De acuerdo con la teoría especial de la relatividad, nada, bajo ninguna circunstancia puede viajar a más de la velocidad de la luz, lo que se denomina velocidad superluminal. Sin embargo, los doctores Günter Nimtz y Alfons Stahlhofen de la Universidad de Coblenza afirman que podrían haber abierto una brecha en un aspecto fundamental de la teoría de la relatividad especial.

Los científicos han estado estudiando un fenómeno denominado efecto túnel fotónico. Los experimentos indicarían que habrían conseguido que los fotones pasasen por medio del efecto túnel de forma “instantánea” a través de barreras de varios tamaños, desde unos milímetros hasta un metro. Su conclusión es que los fotones atraviesan la barrera a velocidad superluminal.

El experimento, que aún debe ser confirmado por otros investigadores, se basa en el efecto túnel, un fenómeno descrito por George Gamow para explicar la desintegración de núcleos radiactivos en 1928 y ampliamente estudiado. El premio Nobel de 1986 fue concedido a Bining y Rohrer por el desarrollo de un microscopio basado en él. Se trata de un efecto mecanocuántico que consiste en que una partícula pueda atravesar una barrera de potencial sin tener energía suficiente para rebasarla por encima (en el sentido clásico), debido a que la probabilidad de que la partícula se encuentre al otro lado de la barrera es no nula.

La confirmación del resultado, aparte de una conmoción en el mundo de la física, supondría abrir la puerta a multitud de consecuencias paradójicas. Por ejemplo, si se puede viajar más rápido que la luz, un astronauta podría llegar a destino antes de partir.

Esta es la única violación de la relatividad especial de la que se tiene noticia.

Efecto túnel: http://es.wikipedia.org/wiki/Efecto_túnel
Telegraph:http://www.telegraph.co.uk/earth/main.jhtml?xml=/earth/2007/08/16/scispeed116.xml
Original: http://arxiv.org/abs/0708.0681

miércoles, 15 de agosto de 2007

La creciente popularidad de la panspermia

Parece que últimamente la teoría de la panspermia está suscitando nuevo interés. Este nombre, panspermia, es el que ha calado entre el público y es el que se viene usando habitualmente. En sentido estricto habría que hablar de exogénesis, la vida no habría sido plantada como una “semilla” en la Tierra, como las esporas de las que hablaba Svante Arrehnius, sino que las bases químicas para la vida, lo que se llama evolución química, se originarían en el espacio exterior. Pero, ¿cuáles son estos nuevos apoyos a la teoría?

La misión Stardust (Polvo se estrellas) de 2004 al cometa Wild 2 encontró una variedad de moléculas de hidrocarburos, los bloques con los que la vida de construye. La misión Deep Impact (Impacto profundo) al cometa Tempel 1 descubrió una mezcla de partículas de arcilla e hidrocarburos en el interior del cometa. Una de las teorías para el origen de la vida propone que las partículas de arcilla actuaron como catalizadores, convirtiendo moléculas orgánicas sencillas en estructuras más complejas.

Un equipo de la Universidad de Cardiff (Gales, Reino Unido) dirigido por el profesor Wickramasinghe sugiere que los elementos radiactivos pueden mantener el agua en forma líquida en el interior de los cometas durante millones de años, haciendo de ellos potenciales “incubadoras” ideales para los primeros pasos de la vida. Señalan además que los miles de millones de cometas en nuestro sistema solar y a lo largo y ancho de la galaxia contienen mucha más arcilla que la que se hallaba en la Tierra primitiva. Los investigadores han calculado la probabilidad de que la vida se originara en un cometa frente a que lo hiciera en la Tierra, su resultado es un 1 seguido de 24 ceros frente a 1.

Independientemente de lo anterior, un equipo liderado por el profesor Glaser de la Universidad de Missouri-Columbia abunda en la idea de que compuestos químicos esenciales para la vida como la adenina (componente de las proteínas y del ADN y el ARN) se pueden haber originado en las nubes de polvo interestelares y después haber llegado a la Tierra y otros planetas.

El modelo teórico elaborado por el equipo de Glaser muestra que no existe un gran impedimento para que se forme adenina en las nubes interestelares en las que ya se ha detectado cianuro de hidrógeno, por lo que ha solicitado se investiguen estas regiones en detalle. La adenina, por otra parte, ha sido encontrada en meteoritos.

La teoría de la exogénesis no sólo es cosa de laboratorios. En los próximos meses la Agencia Espacial Europea va a realizar dos experimentos para comprobar las posibilidades reales de esta teoría. Ambos experimentos irán a bordo de la misión Foton M3, que tiene previsto su despegue el próximo 14 de septiembre desde el cosmódromo de Baikonur en Kazajstán.

En el primero de ellos, dirigido por el profesor Parnell de la Universidad de Aberdeen, una roca sedimentaria con 400 millones de años de antigüedad será sometida a las condiciones de entrada en la atmósfera. La roca, del tamaño de un puño, que contiene moléculas consecuencia de la descomposición de algas, será protegida durante el despegue pero expuesta a las condiciones de extrema temperatura en la vuelta a la Tierra. Se espera que la parte exterior se funda o desintegre, pero que la parte interna pueda llegar al suelo. Habrá que comprobar qué compuestos químicos son capaces de llegar a la superficie terrestre. Este experimento está diseñado, en principio, para saber si se pueden encontrar biomarcadores fósiles en meteoritos procedentes de Marte (como se afirmó que se había encontrado en 1996).

El segundo experimento está diseñado específicamente para probar si la panspermia (aquí no decimos exogénesis) es posible. Este experimento, diseñado por el profesor de Vera de la Universidad Heinrich Heine de Düsseldorf, consiste en someter una roca colonizada por líquenes a las condiciones de la reentrada, para ver si pueden sobrevivir en estas condiciones. Un experimento a bordo de un cohete Soyuz diseñado por el profesor Leopoldo Sancho de la Universidad Complutense de Madrid en 2005, ya confirmó que los líquenes pueden sobrevivir en el espacio exterior.
.
PhysOrg.com (Wickramasinghe): http://www.physorg.com/news106316780.html
PhysOrg.com (Glaser): http://www.physorg.com/news106318860.html
New scientist: http://space.newscientist.com/article/dn12469-fiery-rock-will-test-whether-life-came-from-space.html
Original (Wickramasinghe): The Origin of Life in Comets (El origen de la vida en los cometas) pendiente de publicación en el International Journal of Astrobiology
Original (Glaser) [PDF]: http://www.liebertonline.com/doi/pdfplus/10.1089/ast.2006.0112

martes, 14 de agosto de 2007

Mire un momento aquí, por favor.

Los que hayan visto la película “Hombres de Negro” seguro que recuerdan el “neuralizador”, ese aparatito que llevaba el agente K (Tommy Lee Jones) y que usaba para, mediante un destello de luz, eliminar el recuerdo concreto de lo vivido hacía poco. A ninguno se nos ocultan las utilidades que un aparato como este podría tener para el común de los mortales, para lo bueno (la eliminación de recuerdos traumáticos) como para lo malo (el crimen en general).

No será como el “neuralizador”, pero un ensayo llevado a cabo con un fármaco prohibido en humanos en la Universidad de Nueva York tiene efectos muy parecidos.

Los investigadores dirigidos por el prestigioso Joseph LeDoux trabajaron con ratas. Primero les enseñaron a temer tanto un pitido como una sirena dándoles una descarga eléctrica cada vez que cualquiera de los sonidos se producía. Posteriormente suministraron a la mitad de las ratas U0126, que se sabe que interfiere con el almacenamiento de la memoria, y repitieron los sonidos esta vez sin descarga eléctrica.

Un día después, cuando LeDoux reprodujo los sonidos, los animales a los que no se les había suministrado el fármaco aún tenían miedo de ambos sonidos. Pero las ratas a las que se les había dado la droga no tenían miedo del pitido, que fue lo último que oyeron mientras se encontraban bajo la influencia del U0126.

No se sabe exactamente como el U0126 produce su efecto amnésico. Una hipótesis es que podría bloquear la síntesis de las proteínas que ayudan a fortalecer las conexiones entre las neuronas y establecer los recuerdos. Sólo los recuerdos que están siendo activados serían vulnerables al fármaco, ya que la oportunidad de borrado tiene lugar durante el acto de recuperación del recuerdo.

Es la primera vez que se consigue borrar un solo recuerdo sin afectar al conjunto de la memoria.

Discover: http://discovermagazine.com/2007/jul/eternal-sunshine
LeDoux Lab: http://www.cns.nyu.edu/ledoux/Ledouxlab.html

lunes, 13 de agosto de 2007

No son tanto los genes como su regulación.

¿Qué diferencia a un hombre de un chimpancé si excluimos el aspecto físico? Sus códigos genéticos son por lo demás iguales en un 99%. La respuesta es su cerebro y su dieta. Pero, ¿cómo se justifica tanta diferencia en el resultado cuando sólo hay un 1% de diferencia en el libro de instrucciones? La respuesta en este caso es que no es tan importante con qué empiezas sino cómo lo gestionas o, en términos más técnicos, no son tanto los genes como su regulación.

Aunque muchos estudios han buscado diferencias significativas en las regiones de codificación de los genes relativas al desarrollo del sistema neurológico y no encontraron ninguna, esta es la primera vez que lo que se hace es un estudio comparado de las secuencias reguladoras. La necesidad de una tercera especie que sirviera de comparación ha hecho que este tipo de estudio tuviese que esperar a la publicación del genoma del macaco rhesus en 2005, un primate pariente lejano que comparte un 88% de sus genes con los humanos.

Un grupo de la Universidad de Duke liderado por el Dr. Haygood ha mirado las secuencias reguladoras inmediatamente adyacentes a 6.280 genes del ADN de humanos, chimpancés y macacos rhesus. Estos trozos reguladores del ADN son dónde las proteínas se unen al genoma para iniciar la función de un gen. Y es aquí donde parece que la evolución ha hecho el ajuste fino de la actuación de los genes que después resulta en un cerebro humano.

Otros estudios habían encontrado diferencias significativas entre estas especies en las regiones de codificación que gobiernan el sistema inmunitario, el sentido del olfato y la fabricación de esperma, pero las regiones de codificación de los genes relacionados con la neurología habían mostrado pocas muestras de selección positiva. Sin embargo, la propuesta de que la diferencia había que buscarla en la regulación fue hecha por la Dra. King y el Dr. Wilson en 1975, los mismos que dijeron por primera vez que los humanos y los chimpancés comparten el 99% de los genes.

En lo que concierne a la dieta los chimpancés son frutívoros y no durarían mucho sin fruta a su alcance. Los azúcares en su dieta son sencillos de romper y crear con ellos combustible para las células. Los humanos, por otra parte, comen una variedad de alimentos mucho mayor, incluidos algunos que los chimpancés no podrían ni siquiera digerir, no digamos ya metabolizar. Los investigadores encontraron enormes diferencias en las regiones reguladoras de los genes para descomponer carbohidratos complejos. Los humanos tienen desarrolladas vías metabólicas para descomponer estos carbohidratos en azúcares sencillos.





Science Daily: http://www.sciencedaily.com/releases/2007/08/070812173244.htm
Original: http://precedings.nature.com/subjects/genetics/search?query=haygood

domingo, 12 de agosto de 2007

De ratones y hombres: el origen del comportamiento sexual.

¿Qué hace que nos comportemos como machos o como hembras? ¿Son nuestros cerebros determinados así genéticamente? ¿Existe un cerebro de varón y otro de mujer? ¿Es la influencia de las hormonas en el cerebro, en concreto la testosterona? ¿El comportarse como macho o hembra implica algo más que la atracción por el sexo opuesto?

Estas preguntas tan sencillas tienen una respuesta en general muy compleja. Por ejemplo, una diferencia evidente entre el cerebro de las mujeres y el de los varones es el tamaño, mayor en el segundo caso que, sin embargo, no se traduce en diferencias cognitivas ni funcionales.

Hace unos días hablábamos de que cada vez existen más indicios de que el órgano vomeronasal es más activo en los humanos de lo que se pensaba (ver “¡Qué bien hueles!, link al final del texto). A la vista del descubrimiento del que se acaba de informar estos indicios pueden ser relevantes a la hora de explicar el comportamiento sexual en los humanos.

La Dra. Dulac y sus colegas de la Universidad de Harvard produjeron por técnicas de ingeniería genética ratones hembra a los que les faltaba el gen TRPC2. Este gen es esencial para el funcionamiento del órgano sensible a las feromonas, el órgano vomeronasal.

Sin el gen, los ratones hembra actuaron exactamente como machos (incluso hacia otros machos): montaban a otros ratones, empujones pélvicos y las llamadas ultrasónicas que los machos usan para atraer a la pareja.

Dejados en un recinto seminatural durante un mes, las hembras que carecían del TRPC2 aún perseguían a los machos e intentaban montarlos. Muchas de las hembras tuvieron crías, pero eran malas cuidadoras y no las protegían adecuadamente de los otros ratones del recinto.

Para comprobar si el comportamiento de los ratones mutantes se debía a un desarrollo anormal del cerebro a resultas del gen perdido, los investigadores extirparon el órgano vomeronasal de un grupo de ratones hembras adultos. El mismo comportamiento tuvo lugar, sugiriendo que sin este órgano el circuito “macho” en el cerebro de los ratones hembra no puede ser suprimido.
.

sábado, 11 de agosto de 2007

¿Dónde están los planetas terrestres?



De los más de 240 planetas extrasolares detectados tan solo uno se asemeja a la Tierra. El resto son grandes masas gaseosas que recuerdan más a Jupiter. ¿Qué ocurre entonces? ¿No hay tantos planetas terrestres ahí fuera? ¿O es que aún no hemos buscado lo suficiente y los datos no son estadísticamente significativos?

Las formas de confirmar la presencia de un planeta terrestre pueden resultar muy diferentes a lo que uno se imagina. Nos podemos hacer una buena composición mental de lo que significa que una estrella disminuya su luminosidad aparente porque un planeta se interponga entre ella y nosotros, pero si el espectro de la estrella varía ¿podríamos deducir que existe (o ha existido) un planeta terrestre? Pues, sí. Pero para poder entenderlo bien necesitamos recordar aspectos relevantes de lo que es una enana blanca.

Una enana blanca es en lo que se convierten las estrellas como nuestro Sol cuando han consumido su combustible nuclear. Cerca del final de la etapa de combustión, la estrella expele la mayor parte de su material más externo, creando una nebulosa planetaria.

Con una gravedad en la superficie 100.000 veces la de la Tierra, la atmósfera de una enana blanca es muy extraña. Los átomos más pesados de su atmósfera se hunden y los más ligeros permanecen en la superficie. Algunas enanas blancas tienen atmósferas de hidrógeno y helio exclusivamente, los elementos más ligeros. Debajo de la atmósfera de muchas enanas blancas se cree que hay una corteza de unos 50 km. En el fondo habría una capa cristalina de átomos de oxígeno y carbono.

A la vista de esta descripción lo que uno menos se puede esperar en el espectro de una enana blanca es lo que se ha encontrado en el de GD362, una enana blanca a 78 años luz en la constelación de Hércules. Los espectrómetros acoplados a los telescopios Keck I y II en el Observatorio Mauna Kea de Hawai identificaron la firma de 17 elementos incluyendo sodio, magnesio, aluminio, hierro y níquel. Los autores del descubrimiento, Michael Jura (Universidad de California) y Alan Boss (Carnegie Institution), afirman además que las proporciones en las que se encuentran son muy similares a las de la Tierra. La hipótesis es que, en algún momento de su historia, GD362 se tragó un planetoide terrestre, cuyos restos estarían en un estrecho disco alrededor de la estrella. No se descarta que pudiera haber más planetas alrededor de esta estrella (la imagen de arriba es una interpretación de estos resultados y esta posibilidad).

Este descubrimiento, aunque no sea el de un planeta, sí es estadísticamente significativo a la hora de afirmar que los planetas terrestres no son tan raros en el universo.

Science: http://sciencenow.sciencemag.org/cgi/content/full/2007/807/3
Enanas blancas : http://es.wikipedia.org/wiki/Enana_blanca



viernes, 10 de agosto de 2007

Distinguiendo lo propio de lo extraño: de celular a pluricelular

Las amebas son seres unicelulares que se caracterizan por carecer de pared celular, lo que es una condición necesaria para poder desplazarse a base de pseudópodos. Las amebas suelen ser parásitos presentes en el agua o en la tierra pero también hay especies que parasitan el intestino del hombre y otros animales. Parecen bastante aburridas hasta que descubrimos que pueden tener la clave para explicar cómo se produjo el paso de células unicelulares a pluricelulares en la evolución.

La Dictyostelium discoideum (una ameba) se encuentra habitualmente como un organismo unicelular. Sin embargo, cuando padecen condiciones severas de déficit de alimentos, las células individuales se agrupan para formar una “babosa” que puede moverse. Finalmente esta babosa cambia para producir células que realizan funciones específicas: esporas y tallos. Lo más interesante, sin embargo, es lo que el Dr. Kuspa de Baylor llama células centinela.

Las células centinela pueden circular dentro de la babosa, tragándose bacterias invasoras y secuestrando venenos o toxinas, eliminándolas finalmente de la babosa. Estas células suelen operar a través de un mecanismo particular en las células controlado por un receptor TirA. Este mismo sistema o uno muy parecido está presente en plantas y animales; no se ha identificado en hongos, sin embargo.

Puede argumentarse a la vista de estos hechos que el progenitor de todos los organismos pluricelulares tenía esta vía de comunicación. Ya que ese organismo no era probablemente pluricelular, lo debía emplear como un método de señalización para responder a las bacterias del medio.

Desde otro punto de vista, podría afirmarse que una de las propiedades que permitieron el paso a seres multicelulares fue la capacidad de distinguir lo propio de lo extraño: la base de un sistema inmunológico. Esto es, el requisito para la pluricelularidad sería el que seas capaz de desarrollar sistemas que reconozcan patógenos y otras células distintas de ti mismo.

Baylor College of Medicine: http://www.bcm.edu/news/item.cfm?newsID=934
Original: http://www.sciencemag.org/cgi/content/short/317/5838/678

miércoles, 8 de agosto de 2007

De viajes cuánticos y espaciales o cómo mezclar churras con merinas.

Imagina que deseas obtener un determinado estado cuántico para un sistema, una molécula, por ejemplo. Gruebele y Wolynes han desarrollado un método para conseguirlo que consiste básicamente en lo siguiente:

1) Determínese cual es el estado cuántico inicial que más probablemente dé lugar al estado final deseado;
2) Determínese cual será el estado cuántico final más probable del sistema habida cuenta de sus condiciones iniciales;
3) Calcúlese el “espacio estado”, esto es, todos los estados cuánticos posibles del sistema;
4) Identifíquese qué localizaciones del “espacio estado” están más próximas a las evoluciones 1 y 2;
5) Estas localizaciones son los puntos (momentos) en los que la energía se aplica de forma más eficiente.

El sistema desarrollado permite calcular en qué momento y cuántos fotones son necesarios para conseguir el paso del estado original al deseado. Es un método rápido y preciso para calcular cómo llevar un sistema de un estado a otro. Un hallazgo, en sí, muy interesante.

Sin embargo, tal y como ha sido distribuida por las agencias esta noticia desinforma más que informa y parece que es culpa de los autores que confunden churras con merinas. Analicemos un momento. El título en inglés es: “Quantum Analog of Ulam’s Conjecture Can Guide Molecules, Reactions”. Según el texto la conjetura de Ulam para las naves espaciales sería: “debido al aspecto de llenado de espacio de las trayectorias caóticas de esta fase, una serie mínima de gastos de energía bastaría para transferir un cuerpo de un punto a otro más rápidamente que por movimiento espontáneo” [sic]. Que, a la vista del contexto, cabe interpretarse como que calculando bien la trayectoria y sabiendo dónde aplicar energía se puede emplear la gravedad para minimizar la cantidad de energía necesaria para desplazarse de A a B, y esta cantidad será mucho menor que la energía necesaria para ir directamente de A a B. El primer caso sería cómo se desplazan las sondas espaciales reales usando la ayuda de la gravedad de los planetas (método desarrollado por los rusos en 1959, en concreto en el Instituto Steklov) y el segundo cómo se desplazan las naves espaciales en las películas. Según el autor la conjetura de Ulam se emplea habitualmente en el cálculo de trayectorias para naves espaciales; más bien no: estamos hablando de trayectorias perfectamente definibles por la mecánica newtoniana que no tienen nada de caóticas y que emplean rutinariamente el método desarrollado por los rusos.

Por otra parte, si el avisado lector hace una pequeña búsqueda sobre la conjetura de Ulam verá que es un concepto matemático no relacionado. Lo que sí desarrolló Ulam junto con J. Cornelius Everett en 1955 y que publicaron en 1956 en un documento clasificado fue el principio según el cual una propulsión con bombas de hidrógeno que explotaban en el exterior de la nave (discontinua) podría ser eficiente a la hora de realizar desplazamientos en el espacio. Se creó incluso un proyecto, el Orion, liderado por Freeman Dyson, para la construcción de una nave espacial basada en este principio, la propulsión nuclear a pulsos. Llegaron a hacerse pruebas con bombas convencionales que confirmaron su viabilidad como sistema de propulsión; según cuenta la leyenda pruebas con esferas de grafito durante ensayos nucleares confirmaron que podía usarse este material como base para el deflector. El proyecto fue suspendido tras el acuerdo que limitaba el uso de explosivos nucleares en el espacio. Recuerdo a Carl Sagan hablando en Cosmos (capítulo 8: Viajes a través del espacio y el tiempo) de este proyecto y de su viabilidad desde el punto de vista ingenieril.

martes, 7 de agosto de 2007

El misterio del Rectángulo Rojo



En 1975 los astrónomos descubrieron una suave luz roja oscura que provenía de un extraño objeto en el cielo. Este extraño objeto rojo tenía la forma de un rectángulo en las primeras fotografías y vino en llamarse el Rectángulo Rojo. La imagen que se muestra arriba fue obtenida por el Telescopio Espacial Hubble. Este resplandor rojo fue renombrado como Emisión Roja Extendida (ERE) y ahora sabemos que está extendido por toda nuestra galaxia (la Vía Láctea) y ha sido observado en otras galaxias: en M82 y en NGC 4862, por ejemplo. Lo que produzca la ERE debe ser un ingrediente común e importante del universo pero, ¿qué la produce?

A lo largo de los años los astrónomos han puesto condiciones más duras a las propiedades que el material que produce la ERE debe cumplir. El material debía ser muy resistente pues se haya en regiones en que la radiación ultravioleta es muy intensa, capaz de destruir a la mayoría de las moléculas poliatómicas. Además es la intensa radiación ultravioleta la que lo haría fotoluminiscente entre los 500 y los 1000 nanometros, lo que implica que debe tener una estructura electrónica particular para que se dé este fenómeno.

Tres explicaciones posibles reúnen condiciones para dar cuenta del fenómeno. A principios de 2006 Chang informó sobre los resultados de su experimento de laboratorio con partículas de diamante de una sección de milmillonésimas de metro. Una vez obtenidos los nanodiamantes tras bombardearlos con protones, los calentaron a 800ºC obteniendo un resplandor similar espectralmente a la ERE del Rectángulo Rojo y a la de la nebulosa planetaria de Cygnus NGC 7027 (ambas áreas ricas en compuestos de carbono), además de emisiones en amarillo y azul. El principal problema es que no consta que se haya detectado carbono elemental (grafito o diamante)

Por la misma época se hizo público el resultado de Castleman, según el cual las nanopartículas de óxido de silicio, y germen de los silicatos, serían las responsables de la ERE. Si bien obtuvieron nanopartículas de óxido de silicio en el laboratorio (exponiendo monóxido de silicio a las condiciones del plasma de gas ionizado) la presencia en el espacio de estos compuestos no está confirmada (sí, en cambio, la del monóxido de silicio).

La última noticia data de abril de 2007 y en este caso los protagonistas son unos viejos candidatos: los hidrocarburos aromáticos policíclicos (PAH en inglés), esta vez con carga. Los resultados de Rhee atribuyen al menos parte de la ERE a una forma exótica de estos compuestos que está cargada eléctricamente, es muy reactiva y, lo más sorprendente, a la vez tiene una estructura electrónica muy estable. Estos compuestos tan reactivos no se pueden sintetizar en el laboratorio por lo que todo el estudio ha sido computacional. Estos compuestos no han sido detectados en el espacio. A los PAH s se les identifica también como moléculas precursoras de la vida, por lo que la confirmación de esta hipótesis sería muy atractiva, pero el misterio del Rectángulo Rojo continúa, a la espera de la observación adecuada.
.

lunes, 6 de agosto de 2007

50 años de universos paralelos (Everett, 1957).

El pasado mes de Julio marcó el 50 aniversario del lanzamiento de la interpretación del estado relativo (IER) de la mecánica cuántica, en la que universos paralelos están constantemente brotando del que nosotros experimentamos, con sucesos diferentes teniendo lugar en ellos. La IER compite con la interpretación de Copenhague, que tiene en Niels Bohr a su representante más conocido, en la que el estado cuántico de un sistema cambia abruptamente cuando es observado (el colapso de la función de onda). Se observa un resultado y, de acuerdo con la interpretación de Copenhague, las partes del estado cuántico que predecían otras posibilidades simplemente desaparecen.


La IER fue formulada por Hugh Everett en 1957. La interpretación pasó bastante desapercibida en su momento, desanimando al joven Everett de tal manera que éste abandonó la física por los análisis de defensa y, posteriormente, la informática (Everett murió con 51 años y multimillonario). La IER fue redescubierta para el mundo por Bryce deWitt en 1970. La lectura que hace deWitt de la IER es sin duda la más popular de las varias que se han hecho: la interpretación muchos mundos (con la que hemos abierto este artículo). La idea fundamental de la IER es que existen miríadas de mundos en el universo además del mundo que percibimos. En particular, cada vez que tiene lugar un experimento cuántico con diferentes resultados posibles con probabilidad distinta de cero, se obtienen todos los resultados, cada uno en un mundo diferente, incluso si sólo somos conscientes del mundo con el resultado que nosotros hemos visto. De hecho los experimentos cuánticos tienen lugar en cualquier parte y muy a menudo, cada vez que un tubo fluorescente algo gastado titila, por ejemplo. Además de la lectura de deWitt, existen otras como la “muchas mentes” de Albert y Loewer o la “muchas historias” de Gell-Mann y Hartle.

Los defensores de la IER arguyen que la IER reconcilia cómo podemos percibir sucesos no-deterministas (como la desintegración aleatoria de un átomo radiactivo) con las ecuaciones deterministas de la física cuántica. Hoy día la IER y la interpretación de Copenhague son dos de las principales interpretaciones de la mecánica cuántica; si bien la primera es minoritaria cuenta con defensores del peso de David Deutsch.

domingo, 5 de agosto de 2007

Extinciones masivas: cómo la órbita solar puede influir en la evolución.

Cuando hablamos de extinción masiva de especies solemos pensar en la extinción de los dinosaurios. Sin embargo se conocen muchos procesos de extinción masiva de especies aunque 5 de ellos son especialmente importantes. Entre estos 5 está el que hizo desaparecer a los dinosaurios hace unos 65 millones de años al final del cretáceo (simbolizado como K) y, con ellos, el 50% de las especies que habitaban el planeta. Sin embargo otros sucesos anteriores fueron aún más destructivos. Así la extinción masiva al final del período pérmico, hace unos 251 millones de años, supuso la desaparición del 96% de las especies marinas y el 70% de las terrestres.

Las explicaciones de estos sucesos son variadas. De todos es conocida la hipótesis de que la extinción de los dinosaurios se produjo por el impacto de un meteorito. Pero, ¿existirá algún fenómeno que las explique todas?

En 2005 Rohde y Muller publicaron un trabajo en el que elaboraron los datos que aparecían en el “Compendio de géneros animales marinos fósiles” de Sepkoski. Calcularon y representaron gráficamente las fracciones de géneros que están presentes en un periodo de tiempo pero que no existen en el siguiente intervalo (ver gráfico, las cinco grandes están representadas por tipo de letra grande).




Dos conclusiones se extraen del trabajo de Rohde y Muller, las extinciones han ocurrido a lo largo de toda la existencia de la vida en la Tierra y, lo más llamativo, parece que hay una periodicidad, un ciclo: cada 62 millones de años. ¿Qué podría explicar un ciclo así? El período es mayor que nada terrestre o incluso relativo al Sistema Solar.

Melott y Medvedev han descubierto que este período se corresponde con los puntos más altos del sol en su órbita relativa al plano de la galaxia. En estos puntos es cuando el Sistema Solar esta más próximo a una fuente de rayos cósmicos creados por las interacciones del campo magnético de la Vía Láctea con la radiación generada por un grupo de galaxias próximas. Los investigadores han encontrado un nivel de coincidencia increíble.

Los efectos que podrían tener los rayos cósmicos sobre la biodiversidad son variados:
1) Efectos directos de la radiación (mayormente muones) sobre la superficie y en los mares hasta una profundidad de 1 km;
2) Cambio substancial del clima producido por el efecto semilla para las nubes producido por la ionización, aumentando el albedo de la Tierra;
3) Efectos de NOx atmosférico y las lluvias de ácido nítrico:
4) Incremento de la radiación UVB debido al efecto de la ionización sobre la capa de ozono.

El trabajo de Melott y Medvedev incluye predicciones observacionales que lo confirmarían o lo rechazarían.

Original de Melott y Medvedev: http://arxiv.org/abs/astro-ph/0602092
ScienceNow: http://sciencenow.sciencemag.org/cgi/content/full/2007/801/1

sábado, 4 de agosto de 2007

Sobre la probabilidad de detectar inteligencia extraterrestre.

La conocida ecuación de Drake estima el número de civilizaciones en la galaxia cuyas emisiones electromagnéticas son detectables. La ecuación adopta la forma
N = R* • fp • ne • fl • fi • fc • L ,
donde N es el número de civilizaciones en la galaxia Vía Láctea cuyas emisiones electromagnéticas son detectables; fp es el ritmo de formación de formación de estrellas apropiadas para el desarrollo de vida inteligente; fp es la fracción de dichas estrellas con sistemas planetarios; ne es el número de planetas, por sistema solar, con un medio ambiente apropiado para la vida; fl es la fracción de planetas apropiados en los que de hecho surge la vida; fi es la fracción de planetas con vida en los que surge vida inteligente; fc es la fracción de civilizaciones que desarrollan una tecnología que emite signos detectables de su existencia al espacio; L es el periodo de tiempo durante el cual estas civilizaciones emiten señales detectables al espacio.

Muchas de las investigaciones que se llevan a cabo actualmente en astronomía, astroquímica o astrobiología permiten afinar la valoración de cada uno de los componentes de la ecuación. Sin embargo, es muy conocida la estimación que hace N = L, esto es, el número de civilizaciones detectables sería igual al tiempo que están emitiendo de media. Este tiempo de emisión medio viene determinado por dos posibilidades de principales para el cese de las emisiones: la autodestrucción y el desarrollo de nuevas formas de comunicación. En cualquier caso, y basándose en esta ecuación, se llevan décadas empleadas en la detección de vida inteligente extraterrestre en los proyectos SETI.

Pero ¿está completa la ecuación desde el punto de vista SETI? Esa es la pregunta que se ha hecho Marko Horvat de la Universidad de Zagreb y a la que ha respondido no. Horvat afirma que se puede calcular la probabilidad de detectar señales de radio extraterrestres teniendo en cuenta qué tipo de emisiones de radio extraterrestres son posibles, qué propiedades tendrían y qué limitaciones imponen las comunicaciones de radio interestelares. Horvat ha llegado a la conclusión (en contra de la intuición) de que el máximo de probabilidad de contacto se alcanza con N grandes pero con L pequeños, es decir, las posibilidades son máximas cuando existen muchas civilizaciones con tiempos de vida relativamente cortos. Si hay pocas civilizaciones que viven mucho tiempo las probabilidades caen a prácticamente cero, porque desarrollan medios de comunicación diferentes a las señales radioeléctricas. Otro punto interesante es que Horvat asume unos medios de detección mejorados y que se busca de forma sistemática y continuamente.

A la vista de lo anterior, ¿qué probabilidades de éxito se pueden estimar para SETI tal y como funciona en la actualidad?

Original: http://www.arxiv.org/abs/0707.0011
Ecuación de Drake (Wikipedia): http://es.wikipedia.org/wiki/Ecuación_de_Drake
New Scientist: http://space.newscientist.com/article.ns?id=mg19526155.100&print=true
SETI Institute: http://www.seti.org/

viernes, 3 de agosto de 2007

La mecánica cuántica determinista de 't Hooft

Para muchos físicos relevantes el indeterminismo de la mecánica cuántica sólo revela una falta de conocimiento. De este convencimiento viene la expresión de Einstein “Dios no juega a los dados”. El argumento que más veces se ha empleado para negar la indeterminación de los fenómenos cuánticos ha sido el de las variables ocultas, siendo el principal ejemplo la propuesta de de Broglie de 1927, redescubierta por Bohm en 1952, según la cual un sistema de partículas es descrito en parte por su función de onda (ecuación de Schrödinger) y, además, por una “ecuación guía” que expresaría las velocidades de las partículas en función de la ecuación de onda.

Mientras que la mecánica de Bohm sigue siendo vivamente discutida, continúan apareciendo teorías y modelos en los que la indeterminación de la mecánica cuántica se ve puesta en entredicho y con ésta, según algunos, el libre albedrío (véase “Darwinismo cuántico” en este mismo blog). Una polémica que está empezando a tomar cuerpo es la discusión acerca del postulado de las condiciones iniciales no constreñidas del premio Nobel ‘t Hooft. Según este postulado los estados fundamentales que existen a las escalas más pequeñas comienzan con unas propiedades claramente definidas. La información sobre estos estados se volvería confusa con el tiempo hasta el punto de que ya no podemos decir cómo surgieron inicialmente, llevando a su aparentemente naturaleza cuántica probabilística.

Ante las primeras críticas, ‘t Hooft comentó “no son las matemáticas las que pierden a los filósofos. Es esta preocupación metafísica acerca del libre albedrío.” Según el planteamiento de ‘t Hooft carecemos de la libertad para cambiar instantáneamente los estados iniciales de los que partimos.

Las críticas no se han quedado en palabras. Suárez ha diseñado y llevado a cabo un experimento en el que se demuestra, según él, que ‘t Hooft se equivoca (el artículo se titula “Demonios clásicos y ángeles cuánticos: sobre la mecánica cuántica determinista de ‘t Hooft”). Según el propio Suárez, la teoría de ‘t Hooft se basa en que los estados fundamentales obedecen las leyes causales, de tal forma que una cadena de acontecimientos puede ser calculada con precisión dadas las condiciones iniciales. Suárez y sus colegas pusieron en juego los efectos de la relatividad especial en un experimento de entrelazamiento cuántico estándar, de manera que pudieron comprobar cómo el fluir del tiempo interacciona con el mundo cuántico. Los resultados mostraron que no existe causalidad a estos niveles.

La teoría de ‘t Hooft no puede explicar los resultados de Suárez pero el Nobel afirma “Después de todo, sabemos que el mundo cuántico proporciona resultados excéntricos. Por eso exactamente busco una alternativa”.

La teoría de ‘t Hooft: http://www.pascos07.org/programme/talks/tHooft.pdf
El experimento de Suárez: http://www.arxiv.org/abs/0705.3974
New Scientist: http://www.newscientist.com/channel/being-human/mg19526154.200-free-will--is-our-understanding-wrong.html
Mecánica de Bohm: http://plato.stanford.edu/entries/qm-bohm/
Darwinismo cuántico: http://cesartomelopez.blogspot.com/2007/07/el-darwinismo-cuntico-y-la-realidad.html

jueves, 2 de agosto de 2007

Usamos el 100% del cerebro.

“Usamos sólo un 10% de nuestro cerebro” es, como suele ocurrir muchas veces, una simplificación excesiva que, unida al desconocimiento de la base científica, lleva a exageraciones y malinterpretaciones de lo más variado; incluidas las que permiten a muchos métodos de “autoayuda” producir pingües beneficios.

Uno de los científicos que examinaron cortes del cerebro de Einstein fue Marian C. Diamond, de la Universidad de California en Berkeley. No encontró nada especial en el número o el tamaño de las neuronas. Sin embargo, en el córtex de asociación, responsable de la cognición de alto nivel, halló una cifra elevadísima de las células de la glía: una concentración mucho mayor que la del promedio de su encéfalo.

Fue Virchow el que describió en 1856 el tejido conectivo dentro del cerebro, el que hacía de pegamento. De ahí recibió su nombre: glía. Ramón y Cajal en 1891 consiguió determinar que el tejido glial estaba compuesto por células nerviosas pero distintas de las neuronas. A principios del siglo XX se estableció que la proporción de de glías a neuronas era de 9 a 1, de ahí que se afirmase que sólo se usa el 10% del cerebro, atribuyendo nulas funciones intelectivas, volitivas o motoras a las células glía. ¿Pero realmente esto es así? ¿Qué funciones desempeñan las células glía?

Las células gliales inducen la creación de una barrera sangre-cerebro contribuyendo al mantenimiento y conservación de un microambiente que permita la correcta transmisión de señales entre las neuronas. Durante el desarrollo del tejido nervioso contribuyen a la orientación de las migraciones neuronales, de los axones en crecimiento y al mantenimiento de los contactos sinápticos, controlando su actividad. También contribuyen a la supervivencia neuronal mediante la producción de unas proteínas llamadas neurotrofinas. Generan vainas de mielina que favorecen la rapidez y eficacia en la transmisión de señales bioeléctricas. Reparan lesiones del tejido nervioso y fagocitan residuos celulares resultantes de la lesión y contribuyen a la formación de cicatrices tras la lesión (desgraciadamente, algunas de estas acciones impiden el crecimiento axónico y la regeneración de tractos axónicos lesionados).

Hasta aquí las funciones conocidas hasta ahora de las células glía, pero el catálogo de actividades no está cerrado ni mucho menos. Acaba de publicarse, por ejemplo, en Neuron un artículo en el que se demuestra que una enzima de las células gliales de Drosophila es empleada en el establecimiento del ritmo circadiano en las neuronas reloj.

El símil automovilístico se nos antoja adecuado: el coche de fórmula uno y su piloto son el tejido neuronal, es lo visible del equipo, donde va la publicidad; los talleres, el box, los mecánicos, los ingenieros son el tejido glial. El primero no puede competir sin el segundo, se necesita el 100% del equipo.

Neuron: http://www.neuron.org/content/article/abstract?uid=PIIS0896627307004953
Investigación y Ciencia: http://www.investigacionyciencia.es/03062886000574/C%C3%A9lulas_de_la_gl%C3%ADa.htm

miércoles, 1 de agosto de 2007

Una máquina del tiempo realista.

Stephen Hawking sugirió una vez que la ausencia de turistas del futuro constituye un argumento en contra de la existencia del viaje en el tiempo, de la misma forma que la paradoja de Fermi lo es para la existencia de inteligencia extraterrestre. Por supuesto, este argumento no nos dice nada en contra de que el viaje en el tiempo sea físicamente posible, ya que puede ser que sea posible pero que nunca haya sido desarrollado; y aún en el caso de que se haya desarrollado, Hawking advierte que el viaje en el tiempo puede que sólo sea posible en una región del espaciotiempo que esté deformada de la forma correcta y que, si no podemos crear una región así hasta el futuro, entonces los viajeros del tiempo no podrían viajar hacia un pasado anterior a esa fecha. Esto explicaría la ausencia del turismo temporal organizado.

Amos Oris acaba de publicar un artículo en el que desarrolla un modelo matemático que proporciona las condiciones iniciales hipotéticas que deberían cumplirse para la formación de una máquina del tiempo. Decimos formación y no construcción porque la máquina del tiempo no sería un artefacto sino el propio espaciotiempo, en línea con la última argumentación de Hawking. La constituye la formación de curvas tipo-tiempo cerradas. Uno de los puntos fuertes del modelo es que no establece como necesaria la existencia de materia exótica de densidad negativa; su lugar, y esto es lo interesante, lo ocupa la materia ordinaria. Otro punto interesante es que el modelo es lo suficientemente robusto como para asegurar que se elimina la posibilidad de formación de un punto de campo gravitacional infinito.

El principal punto débil del modelo es el muy estrecho margen en el que podrían darse las condiciones iniciales adecuadas, haciendo que sea muy difícil, si no imposible, conseguirlas. Si se consiguiesen estas condiciones iniciales, la máquina del tiempo se formaría sola sin intervenciones posteriores.

Los investigadores siguen trabajando para ver cómo se pueden conseguir estas condiciones iniciales. Es posible que dentro de un tiempo se pongan de moda los viajes a nuestra época…pero no a nuestro pasado.

American Technion Society: http://www.ats.org/news.php?id=169
Original : http://arxiv.org/abs/gr-qc/0701024