domingo, 25 de noviembre de 2007

Si non è vero è ben trovato: La teoría del todo de Lisi



Uno de los misterios del universo es porqué debería hablar el lenguaje de las matemáticas. Los números y sus relaciones no son más que pensamiento abstracto después de todo. Sin embargo las matemáticas han demostrado ser una herramienta extremadamente útil y precisa a la hora de describir tanto los contenidos del universo como las fuerzas que actúan sobre ellos. Ha aparecido un artículo que afirma que una de las ramas de la matemática, la geometría, es el fundamento de todas las leyes de la física.

Los físicos llevan toda la vida buscando una teoría del todo. Esta teoría uniría las fuerzas fundamentales (gravedad, electromagnetismo y las fuerzas nucleares fuerte y débil) con la materia sobre las que actúan en un único marco omnicomprensivo. Describiría asimismo el universo en el momento del Big Bang (no decimos “en el momento de su comienzo en el Big Bang” porque no podemos descartar que el universo sea cíclico).

Lo más próximo que se tiene actualmente de una “teoría del todo” es el Modelo Estándar de la física de partículas, que es un embrollo y además parcial, porque no incluye la gravedad. Tres décadas de esfuerzo se han dedicado a la teoría de cuerdas, que incluye la gravedad pero al precio de tener un universo nada elegante en el que florecen dimensiones ocultas. Otras aproximaciones al problema, como la teoría cuántica de bucles, se está viendo que también vienen despeinadas. El que una teoría del todo surja de la geometría sería muy elegante, pero parece poco probable.

En cualquier caso esto es precisamente lo que propone Garret Lisi. La geometría que él ha estado estudiando es una estructura que los matemáticos denominan E8, que fue descubierta en 1887 por Sophus Lie, un matemático noruego. E8 es un monstruo. Tiene 248 dimensiones y se han tardado 120 años en resolverla. Se pudo con ella finalmente a principios de este año, cuando un grupo de matemáticos usó un superordenador para construir un mapa que la describe completamente [ver enlace abajo; la figura de arriba es una representación en 2 dimensiones].
El Dr. Lisi después de leer estos resultados se dio cuenta de que la estructura E8 podría usarse para describir completamente las leyes de la física. Colocó una partícula (incluyendo las diferentes versiones de las mismas entidades, las partículas que describen la materia y aquellas que describen fuerzas) en la mayoría de los 248 puntos de E8. Usando simulaciones por ordenador para manipular la estructura, fue capaz de generar matemáticamente interacciones que corresponden a lo que se observa en la realidad.

Usar la geometría para describir el mundo no es nuevo. Murray Gell-Mann realizó un truco similar hace 50 años en un intento de racionalizar el montón de partículas que estaban por aquel entonces surgiendo de los experimentos. Las colocó en una estructura conocida como SU(3), y encontró que, manipulando la estructura, era capaz de reproducir las interacciones del mundo real. El Dr. Gell-Mann también identificó puntos en los que no había partículas asociadas y predijo la existencia de partículas que llenarían esos huecos. Se le concedió el premio Nobel después de que fuesen detectadas. Curiosamente, hay 20 huecos en el modelo del Dr. Lisi. Esto sugiere que 20 partículas (o, al menos, 20 identidades diferentes de partículas) tienen que ser descubiertas todavía. Si el Dr. Lisi puede calcular sus masas, habría hecho predicciones que pueden comprobarse experimentalmente, como en el caso del Gell-Mann o en las predicciones de nuevos elementos químicos que hizo Mendeleiev al confeccionar su tabla periódica.

Las partículas deben ser relativamente masivas, porque de otro modo ya habrían sido descubiertas. El detectar objetos masivos requiere energía. Cuando esté terminado, el Large Hadron Collider, una máquina que se construye en el CERN, el laboratorio europeo de física de partículas cerca de Ginebra, creará partículas con masas mayores de las que se han visto hasta ahora. Empezará con su trabajo científico en el verano de 2008, por lo que la comprobación de la teoría de Lisi no tardará mucho. [Experientia docet participa en el proyecto. Tú también puedes. Ver enlace arriba a la izquierda]

La teoría de Lisi cuenta con el respaldo de científicos de envergadura, como Lee Smolin, pero el hecho de que Lisi no pertenezca a ninguna universidad o instituto de investigación le resta credibilidad a los ojos de algunos ( a lo mejor le envidian que se pasa el día haciendo surf o snowboard). De momento puede afirmar cosas que otros no pueden: su teoría es elegante, tiene comprobación experimental y, al contrario que otras, triunfará o fracasará rápidamente en vez de marear la perdiz durante décadas.

domingo, 11 de noviembre de 2007

Azúcar amargo: el azúcar y las hormonas sexuales.

Ingerir demasiada glucosa y fructosa puede desactivar el gen que regula los niveles de estrógeno y testosterona activos en el organismo, según un estudio realizado en cultivos celulares de células humanas y de ratones que se acaba de publicar en el Journal of Clinical Investigation. Este hallazgo viene a apoyar la idea de que es mejor comer carbohidratos complejos y evitar el azúcar.

El azúcar de mesa está compuesto de glucosa y fructosa, mientras que la fructosa se usa habitualmente en las bebidas azucaradas y en los productos de bajo contenido en grasas (una simple mirada a la composición que aparece en el envoltorio o en el envase nos permitirá confirmarlo).

La glucosa y la fructosa se metabolizan en el hígado. Cuando hay mucho azúcar en la dieta, el hígado la convierte en lípidos (grasas). Usando un modelo en ratones y células hepáticas humanas, el equipo del Dr. Hammond de la Universidad de British Columbia (Canadá) descubrió que un incremento en la producción de lípidos bloquea un gen llamado SHBG (sex hormone binding globulin, globulina ligante de las hormonas sexuales), reduciendo la cantidad de proteína SHBG en la sangre.

La proteína SHBG regula la cantidad de estrógeno y testosterona que está disponible en el cuerpo, es decir, regula qué cantidad de estas hormonas está activa. Si la cantidad de SHBG disminuye habrá más cantidades de testosterona y estrógeno activos en el cuerpo. ¿Y qué implica esto? Mayor riesgo de acné, infertilidad, ovarios poliquísticos y cáncer uterino en las mujeres con sobrepeso.

Las cantidades anormales de SHBG también perturban el delicado equilibrio entre estrógeno y testosterona, que está asociado con el desarrollo de enfermedades cardiovasculares, especialmente en mujeres.

Los médicos miden el nivel de SHBG en sangre para determinar la cantidad de testosterona libre en un paciente, que es una información clave para diagnosticar desórdenes hormonales. Además, los niveles de SHBG se usan para indicar la probabilidad de desarrollar diabetes tipo 2 y enfermedades cardiovasculares.

Este descubrimiento descarta la suposición de que eran los altos niveles de insulina los que reducían los de SHBG, una postura que nacía de la observación de que los individuos con sobrepeso y pre-diabéticos tienen altos niveles de insulina y bajos niveles de SHBG. Este nuevo estudio prueba que la insulina no es la responsable y que es el metabolismo del azúcar en el hígado el verdadero culpable.


Original: http://content.the-jci.org/articles/view/32249

martes, 6 de noviembre de 2007

Adenina, ¿local o importada?

El ADN está constituido por cuatro componentes diferentes, cuatro bases, a saber: adenina, guanina, citosina y timina (no confundir con tiamina). Se ha demostrado experimentalmente que estos cuatro componentes pueden formarse a partir de moléculas simples por métodos puramente químicos (léase no biológicos). ¿Pueden estos procesos químicos haber sido los responsables de la formación de las cuatro bases en la Tierra primitiva? ¿Podría darse esta formación en el espacio interestelar? ¿Bajo qué condiciones?

Para dar respuesta a estas y otras preguntas lo primero que necesitamos saber es qué mecanismo químico y qué condiciones de partida y de contorno son necesarias para que se pueda formar una base. Esto es lo que ha hecho Debjani Roy et al. de la Universidad de Georgia.

Roy ha desarrollado un mecanismo paso a paso, viable, posible desde el punto de vista termodinámico que da cuenta de la formación de la adenina a partir de cinco moléculas de cianuro. La investigación, llevada a cabo mediante simulaciones en ordenador, ha tenido en cuenta diversas rutas de reacción. Las más favorables son las catalizadas por agua o amoníaco frente a las no catalizadas y las aniónicas. Este resultado permite aventurar que éstas podrían ser las fuentes principales de adenina de la Tierra primitiva.

No se puede descartar sin embargo que parte de la adenina haya venido del espacio exterior (ver “La creciente popularidad de la panspermia”, enlace abajo). La adenina ha sido encontrada en meteoritos. Sin embargo, ¿cómo se puede formar en el espacio si las moléculas de partida están muy alejadas entre sí (la concentración es muy baja)?

Una respuesta la da Rainer Glaser de la Universidad de Missouri-Columbia que también ha empleado un modelo teórico para explicar la formación de adenina en las nubes de polvo interestelar con altas concentraciones de cianuro de hidrógeno. La principal conclusión es que no existe una barrera a la formación del esqueleto de cinco carbonos necesario para la formación de la adenina.

En definitiva ya se produjera en la Tierra primitiva, ya llegase desde el espacio, o ambas posibilidades combinadas (lo más probable), podemos dar explicaciones plausibles de cómo uno de los pilares básicos de la vida apareció en la Tierra. No sólo eso, sino que estas investigaciones marcan la pauta de cómo desarrollar mecanismos similares para las otras tres bases y otras biomoléculas...además de proporcionar nuevos indicios de que la vida en el universo puede que no sea tan rara.

lunes, 5 de noviembre de 2007

Leslie Eleazer Orgel, in memoriam.

El Dr. Orgel y otros fueron pioneros a la hora de proponer cuestiones sobre los orígenes bioquímicos del ADN, allá por los años sesenta, a la vez que se iban conociendo tanto su estructura como el papel que desempeña como almacén de las instrucciones genéticas.

Trabajando independientemente, el Dr. Orgel, Francis Crick y Carl R. Woese propusieron que otro ácido nucleico, el ARN, podría muy bien haber sido el precursor del ADN. En artículos separados, los tres investigadores sugirieron que el ARN había desempeñado un papel más elemental a la hora de crear una biblioteca de información genética, que en última instancia permitía a los organismos replicarse.

Sus ideas se hicieron famosas bajo el epíteto de “teoría mundial del ARN”, que fue explorada en mayor profundidad por el Dr. Orgel y Stanley L. Miller en un libro, publicado en 1974, titulado “Los orígenes de la vida en la Tierra”. El libro cubre el desarrollo del Sistema Solar, la atmósfera primitiva de la Tierra y otras condiciones necesarias para la vida biológica. Aún hoy se considera que este libro establece la agenda experimental para la investigación de la vida en la Tierra.

Posteriormente el Dr. Orgel colaboró con el Dr. Crick en el Salk Institute for Biological Studies en San Diego (California, Estados Unidos), del que formó parte desde 1964 hasta su muerte a los 80 años, en el refinamiento de una idea realmente provocadora: las semillas de la vida no sólo habrían venido desde los confines del espacio, sino que habrían sido introducidas en la Tierra por inteligencias superiores. Es lo que se conoce como panspermia dirigida. Para el Dr. Orgel esta no era más que una hipótesis a tener en cuenta a la hora de investigar el origen de la vida en la Tierra y en cualquier punto de la galaxia.

El Dr. Orgel se doctoró en química por la Universidad de Oxford e inició su trabajo científico en el campo de la química inorgánica. Durante esta época publicó un importante libro de texto: “Introducción a la química de los metales de transición: teoría del campo del ligando”. Investigó en las universidades de Cambridge y Chicago y en el Instituto de Tecnología de California antes de unirse al Salk. Colaboró con la NASA en el análisis de los datos suministrados por las misiones Viking a Marte.
.
El Dr. Orgel falleció el pasado 27 de octubre en San Diego.

sábado, 3 de noviembre de 2007

En el principio fue la poligamia, o porqué los machos mueren jóvenes.

En todo el mundo, las mujeres viven más que los hombres. El porqué de este hecho no es algo evidente. Pero ocurre lo mismo en muchas otras especies: de leones a antílopes y de leones marinos a ciervos, los machos, por alguna razón, mueren antes.

Una teoría es que los machos deben competir por la atención de las hembras. Eso significa que la evolución está ocupada seleccionando a los machos en función de las cornamentas, el nivel de agresión y el diámetro de las llantas de aleación a expensas de la longevidad. Las hembras no están sujetas a tales presiones. Si esta teoría es correcta, el efecto será especialmente detectable en aquellas especies en las que los machos compiten por la atención de muchas hembras. Por el contrario, será reducido o estará ausente en las que no exista esta competición.

Para comprobar esta teoría Tim Clutton-Brock de la Universidad de Cambridge y Kavita Isvaran del Instituto Indio de Ciencia en Bangalore decidieron comparar especies monógamas y polígamas (en sentido estricto, la palabra correcta es poliginia más que poligamia, un macho reúne un harén de hembras). Querían averiguar si los machos polígamos tenían tasas de supervivencia menores y envejecían más rápido que los de especies monógamas. Para ello, recogieron datos relevantes de 35 especies de pájaros y mamíferos de vida larga.

El resultado de la investigación ha sido que la pauta es tal y como se esperaba. En 16 de las 19 especies polígamas de la muestra, los machos de todas las edades tenían muchas más probabilidades de morir durante cualquier período dado que las hembras. Más aún, cuanto más viejos se hacían, mayor era la diferencia de mortalidad. En otras palabras, envejecían más rápido. Los machos de las especies monógamas no mostraban estas pautas.

Pensemos un momento: si un macho tiene acceso exclusivo a, digamos, diez hembras, y hay tantos machos como hembras, eso quiere decir que hay nueve machos esperando a que el dueño del harén muestre el primer signo de debilidad para derribarlo. Esta intensísima presión competitiva significa que los individuos que tienen éxito pongan todos sus esfuerzos en una o dos temporadas de apareamiento, según el Dr. Clutton-Brock.

Esto obviamente se cobra su peaje. Pero un efecto más sutil puede que esté operando. La mayoría de los estudiosos del envejecimiento están de acuerdo en que el tiempo de vida máximo de un animal está determinado por cuanto tiempo puede razonablemente esperar escapar de los depredadores, la enfermedad, los accidentes y la agresión de los de su propia especie. Si de todas formas lo van a matar rápidamente, no tiene mucho sentido que la evolución desvíe recursos escasos en mantener la máquina a tope. Parece mejor que esos recursos se destinen a la reproducción. Y cuanto más amenazador sea el mundo exterior, más corta será la esperanza de vida.

No hay razón por la que esta lógica no sirva para las diferencias entre los sexos al igual que lo hace para las diferencias entre las especies. La prueba es identificar una especie que haya hecho su medio tan seguro que la mayoría de sus miembros mueran de edad avanzada y ver si la diferencia persiste. Afortunadamente, la especie existe: el hombre.

El Dr. Clutton-Brock considera que la diferencia sexual tanto en los ratios humanos de envejecimiento y en la edad de la muerte es un indicador de que la poligamia era la regla en el pasado evolutivo de la humanidad (y aún lo es en algunos sitios).

jueves, 1 de noviembre de 2007

A vueltas con la constante de Planck y el nuevo kilo.



¿Quién dijo que sería fácil? El Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) de los Estados Unidos está trabajando en la línea que describíamos en nuestro artículo “Redefiniendo el kilo” (link abajo) para conseguir unas mediciones de la constante de Planck de precisión suficiente para que el nuevo kilo se pueda basar en ella.

Los resultados obtenidos hasta ahora empleando una máquina de equilibrio de Watt constituyen todo un récord: incertidumbres de 36 partes por mil millones. Se necesita sin embargo afinar un poco más para que el método de medición desarrollado permita redefinir el kilo: 20 partes por mil millones y sin discrepancias irresolubles.

Si se consigue este nivel de precisión se habrá dado un gran paso, pero aún queda un aspecto fundamental nada baladí, a saber, que un laboratorio independiente alcance los mismos resultados empleando el mismo método. Y aquí es donde están surgiendo los problemas.

Empleando una máquina similar a la del laboratorio estadounidense, el equipo del Laboratorio Nacional de Física (NPL, por sus siglas en inglés) británico ha obtenido una discrepancia significativa en su resultado. Aunque las máquinas no son idénticas sí se basan en el mismo principio y uno esperaría unos valores más próximos.

Para hacernos una idea de la dificultad de lo que se está intentando conseguir, debemos tener en cuenta que la discrepancia es de 308 nW/W (la n significa nano, esto es, milmillonésima). Los resultados obtenidos han sido:

NPL: 6,62607095 · 10^-34 Js
NIST: 6,62606891 · 10^-34 Js

Ni que decir tiene que se sigue trabajando.

Redefiniendo el kilo: http://cesartomelopez.blogspot.com/2007/09/qu-es-un-kilo-s-me-refiero-al-kilogramo.html

sábado, 20 de octubre de 2007

Polvo de estrellas, cocinado en un agujero negro

Una masa de gente que asiste a un concierto en un estadio de fútbol tiene orden a corta distancia, parejas, grupos de amigos, etc.; pero no a larga distancia, no existe relación entre los grupos. Por el contrario, un batallón militar en formación tiene estructura a corta (compañías) y a larga distancia. Análogamente un compuesto químico que se enfría muy rápidamente después de su formación no suele presentar una estructura ordenada a grandes distancias, es decir, a cortas distancias cada átomo sí se rodea de otros compatibles con la composición, pero no se encuentra un orden general: se dice entonces que es un sólido amorfo o vítreo. Si el compuesto enfría despacio y en unas condiciones de presión adecuadas aparece un orden a largas distancias y se origina un cristal.

De la exposición anterior podemos inferir que es más fácil, en el sentido de que es más común, encontrar sólidos amorfos que cristalinos. En el espacio interestelar encontrar un cristal se hace todavía más difícil debido a que los rayos cósmicos destruyen la estructura. Un artículo publicado este mes por el equipo de Ciska Markwick-Kemper de la Universidad de Manchester informa de la detección de un silicato de magnesio cristalino (forsterita) en el flujo de salida del quásar PG 2112+059. No se ha detectado ningún silicato cristalino en nuestra galaxia. Si tenemos en cuenta que en los quásares la radiación es mucho mayor que en el espacio interestelar, ¿cómo explicar este fenómeno? Asumiendo que el quásar es el origen de estos compuestos y que proporciona condiciones de enfriamiento y presión adecuadas para la formación de estos cristales.

La forsterita representa un 5% de los compuestos detectados. También se ha encontrado sílice, una forma de óxido de aluminio llamada corindón y una forma de óxido de magnesio llamada periclasa. Todos estos compuestos forman parte de las rocas y se encuentran fácilmente en la Tierra.

Pero ¿cual es el origen último de este polvo interestelar? Sabemos que los distintos elementos químicos se originan en el interior de las estrellas, proceso conocido como nucleosíntesis.

Los quásares son potentes fuentes de ondas de radio. Estas son el resultado de que la materia (básicamente estrellas) está siendo arrastrada por el agujero negro que se encuentra en su centro y emite energía según va cayendo hacia él. Pero no toda la materia es engullida. Parte es cocinada, transformada y escupida en forma de chorros.

Estos nuevos datos permiten plantear la hipótesis de que el agujero negro supermasivo que proporciona la energía al quásar es el artífice de estos compuestos. Esta hipótesis, además, explicaría el origen del polvo interestelar a partir del cual se formaron sistemas planetarios como el Solar ya que el polvo actual se formó en estrellas de 10.000 millones de años de antigüedad, demasido jóvenes en el momento de la formación del Sistema Solar, hace 4.500 millones de años. Los quásares sin embargo se formaron poco después del Big Bang.


Somos, pues, polvo de estrellas...cocinado en un agujero negro.

Original: http://arxiv.org/PS_cache/arxiv/pdf/0710/0710.2225v1.pdf

domingo, 9 de septiembre de 2007

Sexo, mitos y videojuegos: el caso de la cognición espacial.


Hubo un tiempo en el que las únicas explicaciones políticamente correctas de las diferencias mentales entre varones y mujeres eran culturales. Cualquier biólogo que se atreviese a sugerir en público que quizás la evolución había operado cambios y adaptaciones diferentes en cada sexo, y que éstas podrían traducirse en diferencias a nivel neurológico, se arriesgaba a un linchamiento público.

La situación hoy es la opuesta, la biología suele ser la primera instancia a la hora de explicar cualquier asunto relacionado con el sexo. En otras palabras, lo genético predomina sobre lo cultural. Pero la realidad es obstinada y nos recuerda que, si bien lo primero es importante, no nos podemos olvidar de la influencia del ambiente.

Un equipo de la Universidad de Toronto liderado por el doctor Ian Spence acaba de publicar un artículo en el que explica los resultados de un experimento en el que lo que se esperaba que fuera consecuencia del determinismo biológico, resultara no serlo en absoluto.

El experimento en cuestión trata de determinar la habilidad de la gente para detectar objetos inusuales en su campo de visión (del estilo de “Encuentra las 7 diferencias”). El éxito en las tareas espaciales como ésta difiere entre los sexos (los varones son mejores a la hora de recordar y localizar referencias generales; las mujeres son mejores a la hora de recordar y localizar comida), por lo que los experimentadores no se sorprendieron al encontrar diferencias entre los dos sexos en un ensayo consistente en identificar un objeto diferente colocado entre otros doce idénticos entre sí, que se mostraban al sujeto durante un breve espacio de tiempo. Los varones tuvieron un 68% de aciertos. Las mujeres un 55%.

Si lo hubieran dejado ahí, el Dr. Spence y sus colegas podrían habar concluido que habían descubierto otra diferencia evolutiva más entre varones y mujeres, la habrían explicado por medio de la división del trabajo en la sabana africana de nuestros antecesores, y se hubieran quedado tan panchos.

En vez de eso, les pidieron a algunos de sus voluntarios que se pasaran 10 horas jugando a “Medal of Honor: Paciffic Assault”, un videojuego de acción del estilo dispárale a lo que se mueva. Como control, el resto de voluntarios pasó al mismo tiempo jugando a “Ballance”, un rompecabezas. Después repitieron el ensayo.

Entre los que habían jugado a “Ballance”, no hubo cambio en la capacidad de detectar lo inusual. Entre los que jugaron a “Medal of Honor”, ambos sexos mejoraron sus resultados.

Esto no es sorprendente, habida cuenta de la diferente naturaleza de los juegos. Sin embargo, la mejora en las mujeres fue mayor que la de los varones; tanto, que ya no había una diferencia significativa entre mujeres y varones. No sólo eso, sino que la ausencia de diferencias significativas se mantuvo durante un período prolongado. Cuando los voluntarios volvieron a repetir el ensayo cinco meses después, tanto la mejora como la falta de diferencia entre los sexos se mantenían. Aunque es demasiado pronto para afirmarlo con rotundidad, parece probable que el cambio en agudeza espacial, y la eliminación de diferencias sexuales en esa agudeza, inducida por jugar a “Medal of Honor”, es permanente.

Esto tiene varias implicaciones. Una es que jugar a videojuegos violentos puede tener efectos beneficiosos. Otra es que los videojuegos pueden constituir un medio para mejorar rápidamente las habilidades espaciales de conductores o soldados, por ejemplo. Otra es que, aunque los genes son importantes, la crianza, la educación, también importa. Ahora bien, para decir cuánto, hace falta mucha más investigación. Cualquier explicación que se aventure ahora es como las leyendas de la sabana.

Medal of Honor: http://www.mohes.ea.com/
Ballance: http://www.ballance.org/
Original: Playing an Action Video Game Reduces Gender Differences in Spatial Cognition

jueves, 6 de septiembre de 2007

Ultracongelados, pero vivos.

Los psicrófilos o criófilos son una clase de organismos extremófilos capaces de crecer y reproducirse a bajas temperaturas. Otras clases, no excluyentes entre sí, de extremófilos, son los termófilos (capaces de vivir a altas temperaturas), los acidófilos (capaces de vivir en ambientes con pH menor que 3 ) o los xerófilos (capaces de vivir prácticamente sin agua o humedad), entre otros.

Los psicrófilos se caracterizan por membranas celulares lipídicas capaces de oponerse a la rigidez que impone el frío extremo, y por crear proteínas “anticongelantes” para mantener su interior líquido y proteger su ADN a temperaturas por debajo de la de congelación del agua.

Los psicrófilos están presentes en los suelos alpinos o árticos, en aguas cercanas a los polos o en el fondo de los océanos, en el hielo ártico o de los glaciares. Donde no se esperaba encontrar psicrófilos es en lagos bajo el hielo antártico a kilómetros de profundidad (el hecho de que se hayan detectado lagos, unos 150, ya es en sí un descubrimiento importante).

Brent Christner, de la Universidad Estatal de Lousiana, ya había demostrado en el laboratorio que algunos tipos de microbios son capaces de mantener su metabolismo a temperaturas inferiores a -20ºC, aunque aún no se han encontrado en la naturaleza. Sin embargo, los que se han encontrado en los lagos bajo la Antártida son viables.

Aparte del intenso frío que puede hacer que la cadena de ADN se rompa, también está el efecto de la radiación procedente del hielo, que a lo largo de tanto tiempo puede alcanzar niveles letales. Se han propuesto dos posibles explicaciones a cómo su ADN permanece inalterado, es decir, a cómo pueden sobrevivir congelados durante milenios. La primera es que existan mecanismos de autorreparación que entran en acción cuando la célula se encuentra en un ambiente propicio para el crecimiento; la segunda que se mantenga metabólicamente activa y reparando continuamente (con un aporte de energía continuo, esto significaría…¡la inmortalidad!).

Sea cual sea la explicación, este descubrimiento hace mucho más interesante la investigación de las masas de agua congelada de otros mundos, como Marte y Europa, por poner dos ejemplos.

miércoles, 5 de septiembre de 2007

Redefiniendo el kilo.

¿Qué es un kilo? Sí, me refiero al kilogramo, al de “me pones un kilo de peras” o “he cogido unos kilos”. Una palabra que usamos a menudo pero que no es tan fácil de definir. Sin embargo, la definición de las unidades en ciencia es algo básico, en el sentido de que sienta las bases de toda medida posterior y que permite la comunicación entre los científicos. Yo puedo decir que peso 1.544 plúmbeos pero, como no defina exactamente qué es un “plúmbeo”, nadie sabrá expresarlo en otras unidades (kilos, libras) ni saber si es mucho o poco. Así pues, ¿qué es un kilo?

El Sistema Internacional (SI) de unidades tiene 7 unidades básicas, a saber: el metro para la longitud, el segundo para el tiempo, el kilo para la masa, el amperio para la intensidad de corriente, el kelvin para la temperatura termodinámica, el mol para la cantidad de sustancia y la candela para la intensidad luminosa. Las definiciones de mol, amperio y candela dependen en último término de la definición de kilo, por lo que ésta es central en la ciencia actual. Y la definición no puede ser más anticuada.

En efecto, data de 1901. Como no encontraron mejor forma de definirlo, se hizo lo que muchos harían instintivamente: coger un paquete de garbanzos, ponérselo en las manos al preguntón y decirle “eso es un kilo”. En este caso, la Oficina Internacional de Pesos y Medidas (BIPM, por sus siglas en francés, porque está en París) decidió que un kilo es “la masa del prototipo internacional del kilogramo” que se conserva en una cámara especial de la sede central de la BIPM.

Esta definición acarrea dos problemas evidentes. El primero es que, el prototipo, por muy de platino iridiado (una aleación 90% Pt y 10% Ir) que sea, se degrada con el tiempo a un ritmo desconocido; el segundo es que, si alguien necesita realizar un experimento de mucha precisión, se ve en la obligación de calibrar previamente su propio patrón enviándolo a París. Sinceramente, no veo esto muy viable para los científicos que dentro de 100 años estén trabajando en Marte.

El primer requisito que tiene que tener una unidad es que esté basada en una invariante de la naturaleza (una constante es otra cosa); que siga siendo invariante, además, ante las traslaciones en el tiempo y el espacio. Es decir, un valor que sea igual se mida donde se mida y se haga cuando se haga la medición. Así, por ejemplo, el segundo se define en términos del período de la frecuencia de transición hiperfina en el estado base del átomo de cesio 133. Sin embargo, lo ideal es que las unidades dependiesen de constantes de la naturaleza.

Este es el objetivo del BIMP (para el 2011), redefinir el SI en términos de constantes universales. La cosa no es tan sencilla como pudiera parecer y los aspectos experimentales son críticos. Tanto es así que ya se habla de una nueva disciplina, la metrología cuántica.

Las primeras propuestas de nuevas definiciones para el kilo quedan ideales para enseñárselas a los niños de primaria o al tendero de la esquina:

Propuesta a): El kilogramo es la masa de un cuerpo cuya energía equivalente es igual a la de un número de fotones cuyas frecuencias suman exactamente
[(299.792.458)2/66.260.693] · 10^41 hertz.
Aquí se emplean dos constantes, a saber, la velocidad de la luz y la constante de Planck, y las expresiones para la energía E = mc^2 = hv

Propuesta b): El kilogramo es la masa de un cuerpo cuya frecuencia de de Broglie-Compton es igual exactamente a [(299.792.458)^2/(6,6260693·10^-34] hertz.
Esta definición es muy similar a la anterior. Se emplean las mismas constantes y la frecuencia de de Broglie –Compton no es otra cosa que vm = (mc^2)/h.

Estas dos definiciones tienen como principal punto débil el que los valores de las constantes no son números exactos. Me explico. Al ser estas definiciones consistentes con la definición actual, el cálculo de las constantes en función del patrón-masa hace que su valor no sea exacto, porque lo que se considera exacto es la definición de la unidad. Por ello, la forma correcta de dar el valor de la constante de Planck sería:

h = 6,6260693(11) · 10^-34 Js [1,7 · 10^-7]

Donde el número entre paréntesis es el valor numérico de la incertidumbre estándar referida a los dos últimos dígitos del valor citado y el número entre corchetes el valor de la incertidumbre estándar relativa.

Se pueden matar dos pájaros de un tiro, simplificando la definición y haciendo exacta la constante de Planck. Habría que recalcular algunas cosillas, pero creo que merece la pena. Nuestra definición preferida para el kilo es sencilla y elegante a la par que útil:

Propuesta c): El kilogramo, unidad de masa, es tal que la constante de Planck vale exactamente 6,6260693 · 10^-34 Js

El conjunto del SI podría definirse en términos semejantes, asignando valores exactos a determinadas invariantes y constantes. Ya veremos qué se decide en la reunión del BIMP de 2011 (pista: la propuesta b es francesa).

Para saber más: http://www.iop.org/EJ/abstract/0026-1394/43/3/006/

martes, 4 de septiembre de 2007

Los tres cerditos y la cosmología actual.

Hemos comentado en varias ocasiones en este blog lo artificioso y poco elegante que nos parece el recurso que la cosmología moderna, al igual que en el pasado la física o la química, hace a sustancias o energías exóticas para explicar las nuevas observaciones. Efectivamente, el modelo estándar de la cosmología va a remolque de los datos empíricos, siendo su capacidad de predicción, una de las características de las teorías que verdaderamente se asemejan a la realidad, muy limitada, por no decir nula.

Analizamos, después de una somera descripción, el estado de la estructura de este edificio que es el modelo preponderante de la cosmología moderna: el lego lo conoce como Big Bang, los demás como “Lambda- Materia oscura fría”.

Lo primero que hemos de hacer notar es que la cosmología del Big Bang no es una sola teoría/hipótesis, sino cinco, cada una construida sobre la anterior a modo de edificio. La planta baja, el fundamento, es una teoría que se formuló para poder explicar un hecho observado: los corrimientos hacia el rojo. Esta teoría es la de la Expansión del universo que explica, asimismo, el hecho de que exista una radiación de fondo de microondas.

Sobre la planta baja se construyó el primer piso, la Inflación, para explicar el hecho de que observamos un universo plano y que sus extremos se parezcan tanto.

El segundo piso lo forma la Materia Oscura, que se introdujo para explicar las estructuras visibles, como galaxias y cúmulos, que de otra forma no condensarían en la bola de fuego en expansión.

El tercer piso les resultará familiar a los que sepan algo de química. Para que se inicie la precipitación de un compuesto son necesarias “semillas” del mismo en la disolución. De igual manera se hacen necesarias unas “semillas” sobre las que condensarán las galaxias. Se introduce de esta manera el concepto de “Materia Oscura Fría”.

El cuarto y último piso fue construido para explicar la aceleración en la expansión cósmica que se deduce a partir de la observación de las supernovas [ver “¿El universo es un queso de Gruyère?”, enlace abajo]. Este piso está ocupado por la misteriosa Energía Oscura que puede que esté relacionada con la constante cosmológica (Lambda), o no.

Cada teoría está basada en la anterior, por lo que la fortaleza del edificio depende de lo sólida que sea la teoría de la Expansión. Esta teoría está moderadamente bien fundada ya que es consistente con la radiación de fondo, con la abundancia de helio y con las edades calculadas para las estrellas y cúmulos cercanos. Sin embargo, aún es necesario encontrar más evidencias directas para terminar de confirmarla.

Este modelo/edificio tiene 18 parámetros, 17 de ellos independientes. 13 de éstos tienen fundamento observacional, los otros cuatro flotan por ahí. Parece que podemos ascender por el edificio con cierta seguridad hasta la segunda planta, donde la Materia Oscura dice residir [ver “Luz sobre la materia oscura”, enlace abajo] pero más allá los pisos parecen construidos por los dos primeros cerditos del cuento.

Pues a eso recuerda este modelo, al cuento que por las noches leo para mis hijas y que adapto en función de sus observaciones.


“Modern Cosmology: Science or Folktale? ” de Michael J. Disney: http://www.americanscientist.org/template/AssetDetail/assetid/55839;jsessionid=aaa9dCTXDNq19q
“¿El Universo es un queso de Gruyère?”: http://cesartomelopez.blogspot.com/2007/09/la-historia-de-la-energa-oscura.html
“Luz sobre la materia oscura”: http://cesartomelopez.blogspot.com/2007/06/luz-sobre-la-materia-oscura.html

lunes, 3 de septiembre de 2007

Mujeres jóvenes + hombres mayores = mujeres mayores + más hijos

Decíamos hace poco que el objetivo de la evolución no es la supervivencia sino la reproducción [ver “Asumiendo riesgos”, enlace abajo]. Dado que aquellos que no pueden procrear están, desde el punto de vista de la evolución, ya muertos, la selección natural usualmente no moldea cuerpos que sobrevivan a su propia fertilidad. Pero algunas veces lo hace. Y una de esas veces corresponde a los humanos, ya que las mujeres, que habitualmente dejan de ser fértiles a los cuarentaitantos, viven hasta los 70 u 80.

Parte de la explicación es que la mujer no ha terminado realmente su trabajo reproductivo hasta que su último hijo alcanza una edad en la que puede valerse por sí mismo. Esto puede llevar a la mujer promedio en una sociedad con libre acceso a los anticonceptivos hasta sus 60 años. Pero después de eso, algo ocurre claramente. Y dos artículos aparecidos la semana pasada sugieren qué puede ser. El primero de estos artículos, publicado por Shripad Tuljapurkar de la Universidad de Stanford y sus colegas, muestra que podría ser una consecuencia de la pauta universal según la cual los hombres más mayores se casan con mujeres más jóvenes. El segundo, publicado por Martin Fieder de la Universidad de Viena y Susanne Huber de la Universidad de Medicina Veterinaria de la misma ciudad, muestra que esta pauta universal es, desde el punto de vista evolutivo, la de más éxito entre las que la gente puede adoptar.

La observación de que las mujeres alcanzan el “muro de la muerte” después de que la menopausia las haya dejado infértiles se debe a Bill Hamilton, un biólogo evolutivo británico que lo afirmó en 1966. Claramente no lo hacen. Pero Hamilton no fue capaz de comprender porqué.

Desde entonces, lo que ha venido en llamarse la “hipótesis de la abuela” se ha hecho popular. Según esta hipótesis la muerte de la mujer se pospone porque puede realizar servicios para sus nietos similares a los que realizó para sus hijos. Esto es plausible. De hecho está apoyado por los hechos. Pero puede que no sea la única causa, y el Dr. Tuljapurkar ha venido a dar una explicación adicional puramente genética.

Al contrario que las mujeres, los hombres no ven cortada su fertilidad repentinamente. Vistos como un sexo aislado, entonces, no deberían afrontar el muro de la muerte. En vez de eso, se enfrentarían con la “pendiente de la muerte” que se eleva según su fertilidad cae. Pero hacen falta dos para procrear. Un hombre emparejado con una mujer estéril es, infidelidades aparte, evolutivamente tan irrelevante como si él mismo fuese estéril. Él, por lo tanto, también se enfrenta al muro.

Pero, y esto es crucial, como los hombres casi siempre se casan con mujeres más jóvenes que ellos mismos, la irrelevancia reproductiva les llega más tarde en la vida. No sólo eso, si vuelven a casarse pueden posponerla casi indefinidamente (caso del Dr. Iglesias Puga). Esto significa que mutaciones dañinas cuyos efectos aparecen a edad avanzada todavía pueden ser eliminadas, ya que un hombre maduro que posee una mutación dañina es menos probable que se reproduzca. Y como un gen que se hereda a través de las generaciones pasa la mitad del tiempo en las mujeres, éstas se benefician también de la eliminación. Por lo tanto no hay muro de la muerte para nadie.

La cuestión permanece, ¿por qué en las parejas humanas el hombre es casi siempre mayor? La explicación habitual viene a ser: los hombres prefieren mujeres que son jóvenes y por lo tanto máximamente fértiles, mientras que las mujeres prefieren hombres que han probado ser genéticamente aptos (al sobrevivir) y ser “buenos proveedores” (al acumular status y posesiones materiales). Ambas cosas toman su tiempo.

Si esta explicación es correcta, una consecuencia debería ser un incremento de la fecundidad relacionado con la diferencia de edad. Fieder y Huber han encontrado que esto es así.

Lo hicieron estudiando los registros de 11.000 suecos adultos. Compararon el número de hijos que un individuo tenía con la diferencia de edad entre él/ella y su pareja.

Entre aquellos que habían permanecido con una pareja durante sus vidas reproductivas, encontraron que el pico de hijos correspondía a mujeres cuyas parejas eran cuatro años mayores que ellas. Los hombres más fecundos eran aquellos con parejas seis años más jóvenes. Claramente, en términos evolutivos, la diferencia de edad es realmente buena para ambas partes.

Asumiendo riesgos: http://cesartomelopez.blogspot.com/2007/08/asumiendo-riesgos.html
Original (Tuljapurkar et al.) [PDF]: http://www.plos.org/press/pone-02-08-tuljapurkar.pdf
Original (Fieder/Huber): http://www.journals.royalsoc.ac.uk/content/85414mj102443333/

domingo, 2 de septiembre de 2007

¿El Universo es un queso de Gruyère?

La historia de la energía oscura comienza en 1998, cuando dos equipos independientes de astrónomos estaban buscando supernovas lejanas con la esperanza de medir el ritmo al que la expansión del universo estaba disminuyendo. Su sorpresa fue mayúscula: los datos mostraban que la expansión se estaba acelerando. De hecho, el universo comenzó a acelerarse hace mucho tiempo, en algún momento en los últimos 10.000 millones de años.

Como detectives, los cosmólogos a lo largo y ancho del mundo han construido una descripción del culpable responsable de la aceleración: explica el 73% de la densidad de energía del universo; es repulsivo desde el punto de vista gravitacional; no parece acumularse en las galaxias; fue visto por última vez estirando el espaciotiempo; y responde al nombre de energía oscura. Muchos teóricos tienen un sospechoso en mente: la constante cosmológica. De hecho, encaja en la situación de un universo en expansión. Pero, ¿es el caso de la energía oscura sólido?

Un análisis del marco en el que se propone la existencia de la energía oscura revela que se parte de una hipótesis que no tiene porqué ser verdadera: el universo es homogéneo a gran escala (modelo FRW, Friedmann-Robertson-Walker). Este mismo verano han salido a la luz datos experimentales que indicarían más bien todo lo contrario. Por una parte está el descubrimiento de presuntas hetereogeneidades en la radiación de fondo de microondas [ver “El eje del mal (cosmológico)”, enlace abajo] y, por otra, la detección de un inmenso volumen vacío de 1.000 millones de años luz de diámetro.

Independientemente de estos descubrimientos un equipo de teóricos ha presentado un modelo en el que se puede explicar la aceleración de la expansión del universo sin necesidad de recurrir a la energía oscura. Curiosamente, la hipótesis de partida del estudio es que el universo se parece al queso de Gruyère, es decir, tiene inmensos espacios de densidad muy próxima a cero. El queso sigue el modelo FRW y los agujeros el LTB (Lemaître-Tolman-Bondi). Pues bien, el modelo predice que al atravesar los fotones los espacios vacíos sufren un estiramiento similar al que se atribuye a la energía oscura.

Desde nuestro personal punto de vista, el recurso a algo tan extraño como la energía oscura es demasiado prematuro. Nos recuerda a otras “sustancias” introducidas a lo largo de la historia de la ciencia para explicar los fenómenos observados y que la investigación posterior demostró que eran innecesarias; me estoy refiriendo al éter, el flogisto o el calórico. La discusión ya ha comenzado. Ahora a esperar que las observaciones dicten sentencia.

sábado, 1 de septiembre de 2007

Cuando las almejas dominaban la Tierra

La importancia que, para la comprensión de la evolución de la vida en nuestro planeta, tiene el estudio de las extinciones masivas de especies es manifiesta. Conforme se obtienen más datos, las teorías se van refinando y ya empiezan los intentos de encontrar una periodicidad a las extinciones [ver “Extinciones masivas”, enlace abajo].

Desconocemos si la hipótesis para explicar la enorme extinción masiva del final del Pérmico ha surgido por la presión de la moda (no sería la primera vez que esto ocurre en la historia de la ciencia), pero, en cualquier caso, proporciona claves para vislumbrar qué podía ocurrir en los océanos de aquí a no mucho tiempo.

La extinción del Pérmico tuvo lugar al final de este período (por eso también se llama Pérmico –Triásico), hace 252 millones de años, y dejó paso a unas condiciones de la Tierra tales que permitieron la aparición de los dinosaurios en el Triásico. Este fenómeno supuso la extinción del 70% de la vida terrestre y el 95% de la marina; en el mar sólo sobrevivieron algunos bivalvos y gasterópodos según se desprende de los estudios llevados a cabo por la doctora Fraiser, de la Universidad de Wisconsin en Milwakee,. Recuperarse de lo que ocurrió supuso 5 millones de años.

La hipótesis sería la siguiente. Las estimaciones de los niveles de CO2 atmosférico al final del Pérmico dan niveles del orden de 6 a 10 veces mayores que los actuales. El dióxido de carbono provendría de la mayor erupción volcánica continua de la que se tiene noticia, conocida como las Trampas Siberianas, que habría emitido ingentes cantidades de gas durante un millón de años.

Los altos niveles de CO2 habrían incrementado las temperaturas, resultando en un calentamiento global a gran escala. Este calentamiento generalizado derretiría el hielo de los polos, con lo que el reequilibrio de la temperatura del mar haría que no existiese una zona fría en los mismos y por lo tanto cesarían las corrientes. Los océanos se estancarían con lo que bajaría su nivel de oxígeno, matando la vida en las aguas más profundas, donde no llegaba el oxígeno del aire.

La descomposición de los cadáveres proporcionaría un incremento adicional en el nivel de CO2 y también elevaría la cantidad del venenoso sulfuro de hidrógeno. Los océanos se habrían convertido de esta manera en una mezcla inhabitable. Sólo los habitantes de aguas someras, más ricas en oxígeno, y los de menor tamaño, sobrevivieron en estas condiciones: bivalvos (almejas) y gasterópodos (caracoles).

Los niveles de CO2 se mantuvieron altos durante mucho tiempo, lo que explicaría la lenta recuperación de la vida.

Curiosamente el Triásico parece estar marcado por dos fenómenos ligados a incrementos en los niveles de dióxido de carbono. El período termina con la desaparición de los arrecifes de coral y se inicia con los arrecifes creados por los bivalvos.


Extinciones masivas, cómo la órbita solar puede influir en la evolución: http://cesartomelopez.blogspot.com/2007/08/extinciones-masivas-cmo-la-rbita-solar.html
Extinción pérmica, ¿causada por el calentamiento global?: http://www.astroseti.org/imprime.php?codigo=1067

martes, 28 de agosto de 2007

Asumiendo riesgos.

La mente humana no es un ordenador generalista, sino un rico abanico de adaptaciones para resolver problemas recurrentes desde el punto de vista de la evolución. Al igual que las adaptaciones fisiológicas, las adaptaciones psicológicas evolucionaron para resolver (sólo) problemas en ámbitos particulares y por lo tanto no son necesariamente apropiadas para resolver problemas en otros ámbitos. Desde esta perspectiva, riesgos análogos en la actualidad serán percibidos categóricamente y dispararán algoritmos mentales específicos establecidos a lo largo de la evolución de la especie para resolver problemas repetitivos en la correspondiente categoría o ámbito.


El estudio presentado en Evolutionary Psychology por el equipo del Dr. Kruger de la Universidad de Michigan en Ann Arbor profundiza en esta cuestión mostrando que los riesgos se agrupan en cinco ámbitos:

· Competencia entre grupos. En algún momento de la evolución humana los homínidos adquirieron tal prevalencia en sus ecosistemas que sólo otros homínidos constituían un riesgo para su supervivencia. Conjuntamente con la competencia dentro del grupo la competencia entre grupos constituyó la principal presión evolutiva. Un riesgo moderno en este ámbito sería sentarse vistiendo los colores del Real Madrid en un fondo ocupado por simpatizantes del Barcelona.

· Competencia dentro del grupo. Más compleja que la competencia entre grupos ya que, si bien la lucha está presente, también lo están otras formas de competencia social. La asunción de riesgos en este ámbito es mayor en el caso de los varones ya que el estatus social está asociado a la idoneidad del macho como pareja: las hembras buscarán al macho con poder suficiente para defenderlas a ellas y a su descendencia. En este ámbito, un riesgo moderno sería plantar clara a un jefe para defender a los compañeros, delante de éstos, ante una decisión injusta.

· Emparejamiento y asignación de recursos para la atracción de la pareja. El esfuerzo por emparejarse es una amplia categoría de inversión fisiológica y comportamiento que incluye la competencia específica con congéneres, así como competencia indirecta por bienes y atributos que le hagan a uno atractivo como pareja. Un ejemplo evidente de riesgo que se corre para conseguir pareja es gastarse la mayor parte de tu sueldo (si eres varón) en comprarte un deportivo descapotable.

· Riesgos ambientales. Los ámbitos de riesgo descritos arriba implican generalmente riesgos sociales y asignación de recursos. Los riesgos ambientales, por contra, se asocian a cambios adaptativos provocados por el entorno natural. La asunción de estos riesgos viene de nuestra historia como recolectores y cazadores que además debían evitar o escapar de los depredadores. Ejemplos de riesgos de este ámbito serían explorar una ciudad o un barrio desconocidos, nadar mar adentro hasta llegar a las boyas o tirarse en paracaídas.

· Riesgos para la fertilidad. Este es un ámbito diferente a los demás, habida cuenta de que el objetivo de la evolución no es la supervivencia del individuo sino su reproducción. Los riesgos que ponen en peligro la fertilidad contrastan por ello grandemente con todos los precedentes. Un ejemplo sería esterilizarse de forma que no se tengan hijos y, por lo tanto, disfrutar de mayor cantidad de tiempo y recursos para el ocio.

El estudio del equipo de Kruger muestra que, como era previsible, los riesgos para la fertilidad son los que menos se está dispuesto asumir. Y que, en general, los varones asumen más riesgos que las mujeres.

Así pues, podemos concluir que no existen personas amantes del riesgo y personas que lo evitan por sistema, sino que cada individuo, dependiendo de sus circunstancias y habida cuenta de su carga evolutiva, estará dispuesto a asumir determinados riesgos y a evitar otros.

Original [PDF]: http://www.epjournal.net/filestore/ep05555568.pdf

3 dominios desde hace 3.000 millones de años.

El sistema de tres dominios, propuesto por Woese, es un modelo de clasificación de los seres vivos del planeta Tierra basado en las diferencias en las secuencias de nucleótidos en el ARN de los ribosomas (ARNr) y en la estructura de los lípidos de la membrana de las células y en otros aspectos, como la sensibilidad a los antibióticos. Comparar la estructura del ARNr es especialmente útil ya que las moléculas de ARNr realizan siempre la misma función en todos los seres vivos, por lo que su estructura cambia muy poco a lo largo del tiempo. Por lo tanto, las similitudes y disimilitudes en la secuencia de nucleótidos en el ARNr son un buen indicador de cómo de relacionados están dos células u organismos.

El sistema propone que una célula ancestral común dio origen a tres tipos de células diferentes, cada una representando un dominio. Los tres dominios son Archaea (arqueas), Bacteria (eubacterias) y Eukarya (eucariotas). El Eukarya se divide en cuatro reinos: Protistas, Hongos, Animales y Plantas. ¿Cuándo se separaron los tres dominios?

Como decíamos arriba la estructura química de las membranas celulares distingue los tres dominios. Las arqueas, a diferencia de bacterias y eucariotas, tienen membranas compuestas de cadenas de hidrocarburos ramificadas, entre otras peculiaridades, mientras que las de bacterias y eucariotas poseen ácidos grasos no ramificados.

Los doctores Kenig y Ventura han informado del hallazgo de alcanos alifáticos ramificados con átomos de carbono cuaternario sustituidos de origen biológico. Estos compuestos se encontraron en muestras de pizarra negras extraídas de una mina de oro cerca de Timmins, Ontario (Canadá). En otras palabras, los autores informan de que han encontrado restos diferenciados de arqueas de 2.700 millones de años, lo que viene a confirmar que la estimación que se hacía hasta ahora, de unos 3.000 millones de años, sigue siendo adecuada a la hora de establecer la fecha de separación de los tres dominios.

lunes, 27 de agosto de 2007

Markarian 501, ¿violación de la relatividad y test de la teoría de cuerdas?

Un núcleo galáctico activo es una región compacta en el centro de una galaxia que tiene una luminosidad mayor de la normal en todo o en parte del espectro electromagnético. La radiación de estos núcleos se piensa que proviene del crecimiento por acreción de un agujero negro supermasivo en el centro de la galaxia. Los núcleos galácticos activos son una de las fuentes persistentes más luminosas de radiación electromagnética del universo.

En algunos casos, los núcleos galácticos activos emiten chorros de partículas en la línea de visión del observador, lo que explica su alta luminosidad observada, su variación muy rápida y su alta polarización (comparada con la de los quasars). Estos núcleos se denominan blazars. Markarian 501 es un blazar que emite rayos gamma de tal energía que es un blazar TeV (tera electrón voltio).

El equipo del telescopio de rayos gamma MAGIC estudió dos estallidos de rayos gamma a mediados de 2005 en el núcleo de Markarian 501. Compararon la radiación en dos rangos de energía, de 1,2 a 10 TeV y de 0,25 a 0,6 TeV. El primer grupo llegó a la Tierra cuatro minutos más tarde que el segundo. Este resultado, de confirmarse que no se trata de un fenómeno en el origen, tiene una trascendencia enorme. ¡Enorme!

Si la radiación de mayor energía efectivamente llegó más tarde esto significaría que se viola uno de los principios subyacentes de la teoría especial de la relatividad, el que afirma que la radiación se desplaza en el vacío a igual velocidad independientemente de su frecuencia (léase energía).

El cuadro sería el siguiente: las altas energías podrían causar fluctuaciones a pequeña escala en la forma del espaciotiempo, que actuaría en forma de lente subatómica. Cuanto mayor sea la energía del fotón, más inducirá ese efecto lente y cubriría largas distancias más lentamente.

Estaríamos ante la posibilidad de probar experimentalmente la teoría de cuerdas, la gravedad cuántica de bucles y otras teorías que puedan surgir.

domingo, 26 de agosto de 2007

¿Negentropía en Marte?

Llegará un día en el que el universo no tendrá estructura alguna, consistiendo tan solo en átomos dispersos con una energía homogénea. Esta imagen, válida si el universo no es cíclico, corresponde al máximo de entropía. Se suele igualar la entropía a una medida del caos o desorden, cuando en realidad es la distribución de la energía hacia un estado de uniformidad o, por ponerlo en una frase melodramática, la tendencia hacia el equilibrio cósmico.

Existe sin embargo un fenómeno que se opone a esta tendencia universal, la vida. Fue Erwin Schrödinger quien dijo que las cosas vivas son capaces de posponer esta tendencia. Según sus palabras, la materia viva es aquella que evita la desintegración en el equilibrio. Acuñó un término para la vida, negentropía, entropía negativa. Cuando morimos, los átomos que nos constituyen terminan dispersándose y siendo reciclados por la Tierra, sometidos de nuevo a la evolución de la entropía del Universo.

¿Sería ésta una definición suficiente de vida? Claramente no, existen ejemplos muy evidentes, como la formación de cristales, en los que la entropía disminuye (la del sistema, la del universo aumenta siempre) y que no consideramos cosas vivas. Una condición que podría añadirse a la definición de vida sería que la materia viva resiste al destino que le marca la entropía interaccionando con el entorno, del que incorpora nutrientes (energía) y al que excreta los subproductos de desecho, es decir, la materia viva tendría un metabolismo.

La consideración del metabolismo como condición para la vida hizo que se incluyeran varios experimentos en el Viking Lander, en 1976, para detectar los productos de desecho del metabolismo de posibles microorganismos en el suelo marciano. Uno de ellos fue el Experimento de Emisión Marcada (Labeled Release Experiment) que consistió en proporcionar un líquido (presuntamente) nutritivo a una muestra de suelo marciano. La lógica del experimento dice que, si existen microorganismos (que metabolicen este nutriente en concreto), debería ser posible detectar los productos de desecho de su metabolismo. Para saber que los gases (se esperaba la emisión de CO2) provenían del nutriente, éste estaba marcado radioactivamente, es decir, se podían distinguir los átomos de carbono radioactivo de los compuestos del nutriente de los átomos de carbono habituales (no radiactivos) por medio de un detector especial. Una vez inyectado el nutriente, el CO2 detectado aumentó rápidamente, para entusiasmo de los científicos. Después se descubrió que la química del suelo marciano era capaz de descomponer el nutriente, dando CO2. Los resultados fueron etiquetados como inconcluyentes.

Los datos del Viking Lander siguen siendo analizados 30 años después. Otro experimento incluido en la misión fue el Experimento de Intercambio de Gases (Gas Exchange Experiment). Basado en la misma lógica del anterior, consistía en la incubación de una muestra de suelo en una cámara con atmósfera controlada, en la que se monitorizaban los niveles de CO2 y O2. En su día se estimó que los resultados no revelaban ningún cambio indicativo de vida. Sin embargo ayer, ante el Congreso Europeo de Ciencias Planetarias el Dr. Joot Houtkooper, de la Universidad de Giessen (Alemania), expuso una interpretación de los datos de este experimento según la cual podría haber vida en Marte. La hipótesis de los doctores Houtkooper y Schulze-Maruch, de la Universidad Washington, es que las células responsables de los cambios en la composición de los gases están basadas en una mezcla de agua oxigenada y agua. Una mezcla como la de la hipótesis tendría un punto de congelación de -56ºC, suficiente para sobrevivir en algunas zonas del helado suelo marciano. Los investigadores han calculado la cantidad de biomasa en el suelo marciano en función de los datos que tienen, proponiendo un valor de 0,1% en peso.

Una vez más una hipótesis que, recordemos, habrá que contrastar e investigar, plantea más preguntas de las que responde. Esperemos que la misión Phoenix, que llega a Marte en mayo del año que viene, y cuyos instrumentos pueden detectar esa proporción de biomasa, nos ayude a resolver algunas de ellas.

Science Daily: http://www.sciencedaily.com/releases/2007/08/070824122441.htm

viernes, 24 de agosto de 2007

Cómo colapsar paso a paso y sobrevivir para contarlo.

La evolución irreversible de un sistema microscópico al ser medido es un aspecto fundamental de la teoría cuántica. Desde un estado inicial que presenta incertidumbre cuántica en el observable que vamos a medir, el sistema evoluciona a un estado en el que el observable se conoce con precisión. Su valor es aleatorio con una probabilidad determinada por el estado inicial del sistema. La evolución que provoca la medición (conocida como “colapso del estado”) puede ser progresiva, acumulando los efectos de cambios de estado elementales. En un artículo aparecido ayer en Nature [ver enlace abajo] el equipo dirigido por Michel Brune y Serge Haroche, de la Universidad Pierre y Marie Curie de París, anuncia la confirmación experimental de este fenómeno empleando para ello un ensayo de no-demolición cuántica, cuyo método fue desarrollado por los autores en 1999. El experimento usa átomos para contar el número de fotones en una caja sin destruirlos.

Los fotones se detectan tradicionalmente convirtiendo su energía en una señal eléctrica, que destruye el fotón en el proceso (efecto fotoeléctrico). Un problema adicional en las mediciones cuánticas es que si una variable, por ejemplo la posición, se mide con precisión, la consiguiente imprecisión en una variable incompatible (por el principio de incertidumbre de Heisenberg), en el ejemplo sería el momento, significará que futuras medidas de la posición darán diferentes resultados. Para los fotones la intensidad (número de fotones) y la fase están relacionadas por el principio de incertidumbre.

El método consiste en seleccionar con un láser átomos de rubidio con una velocidad bien definida para después llevarlos a un estado Rydberg. Un estado Rydberg corresponde a poner un electrón en una órbita cuyas dimensiones son muy grandes comparadas con el tamaño del resto del átomo (del ión diríamos si el electrón no estuviese todavía ligado al átomo). Un átomo en este estado se vuelve extremadamente sensible a las influencias externas y tiene una enorme probabilidad de interaccionar con la radiación de microondas. Los átomos así preparados se introducen en una cavidad de niobio (cuyas paredes son espejos superconductores) que puede almacenar fotones de microondas durante 1 milisegundo. Si no hay fotón en la cavidad no le pasa nada al átomo, pero si lo hay, la fase de la función de onda que describe el átomo cambia, porque el electrón externo cambia de estado, y esto puede ser detectado usando técnicas de interferencia. El ritmo de oscilación entre estados de los electrones de un átomo dependerá por tanto del número de fotones.

En el experimento se mantuvieron a los fotones de un campo coherente de microondas dentro de la cavidad. Como indicábamos arriba, el hecho de ser coherente (misma fase) implica que se desconoce el número de fotones antes de la medición, diremos que el sistema está en un estado de superposición del número de fotones. Para cada medición del ritmo de oscilación de un átomo los investigadores obtienen una respuesta diferente acerca del número de fotones que hay. Con una cantidad considerable de mediciones la distribución de valores del número de fotones empieza a centrarse en un número particular, mostrando que el sistema está colapsando a un estado bien definido. Estamos observando el colapso paso a paso del estado, sin destruir los fotones.

Y como predice la naturaleza probabilística de la mecánica cuántica, si se repite el procedimiento de medida, este estado (este número de fotones) puede muy bien ser diferente.


Original: http://www.nature.com/nature/journal/v448/n7156/abs/nature06057.html
Physics World: http://physicsworld.com/cws/article/news/30913#container

jueves, 23 de agosto de 2007

Resistiendo la tentación (si eres mono)

La mayoría de los niños recurren a este truco mental: Cuando se les pide que esperen pacientemente para hacer algo que desean (ver la televisión, por ejemplo) buscan entretenimiento con un juguete o un libro. Los investigadores han probado recientemente que los chimpancés también recurren a distracciones similares, un descubrimiento que, de nuevo, contribuye a difuminar la frontera cognitiva y conductual entre los humanos y otros primates [ver “Petróleo, cacahuetes y abstracción”, enlace abajo].

Los experimentos que han llevado a esta conclusión han sido realizados por Theodore Evans y Michael Beran de la Universidad Estatal de Georgia en Atlanta. Pusieron a cada uno de los cuatro chimpancés objeto de estudio frente a un contenedor conectado a un dispensador de chucherías. Los chimpancés podían alcanzar el contenedor en cualquier momento si querían y comerse todas las chucherías almacenadas, pero esto significaba parar el dispensador, que dejaba de suministrarlas. Los chimpancés reaccionaron retrasando la recompensa a su gusto, de forma que podían conseguir más chucherías.

En otro experimento usando el mismo dispositivo se les suministró unos juguetes a los chimpancés. Igual que los niños, los chimpancés aguantaban durante más tiempo la situación distrayéndose con los juguetes. Para comprobar que jugar con los juguetes era efectivamente una técnica para distraerse, los investigadores modificaron el dispositivo de forma que los chimpancés podían ver cómo se llenaba el contenedor pero no podían alcanzarlo. La mayoría de los primates pasaron más tiempo jugando con los juguetes cuando podían acceder al contenedor que cuando no, lo que indica que juegan como estrategia deliberada para controlar el impulso de comer chucherías.

Frans de Waal [ver “¿Y si la moral fuese innata?”, enlace abajo], primatólogo de la Universidad Emory en Atlanta, afirma que este estudio llena otra “brecha mental” entre los humanos y las otras especies, que se añade a la lista de logros cognitivos por animales que incluye el uso de herramientas y la planificación del futuro. Asegura de Waal que “en humanos clasificaríamos esta conducta como una forma de auto consciencia en relación con la tentación: el conocimiento de que caerás en ella como no te distraigas”. Los autores indican que el estudio también sugiere una auto consciencia en animales más compleja de lo que se suponía.

Nuevas preguntas surgen a partir de este estudio. La más inmediata: ¿Hasta qué punto son conscientes los animales de su propia psicología? ¿Son conscientes de que están siendo tentados de la misma manera en que algunos humanos somos conscientes de que se nos está tentando con el posicionamiento estratégico de chucherías en los cajeros de los supermercados?



Petróleo, cacahuetes y abstracción: http://cesartomelopez.blogspot.com/2007/07/petrleo-cacahuetes-y-abstraccin-spinoza.html
¿Y si la moral fuese innata?: http://cesartomelopez.blogspot.com/2006/11/y-si-la-moral-fuese-innata.html
ScienceNow: http://sciencenow.sciencemag.org/cgi/content/full/2007/822/2?rss=1
Original: “Chimpanzees use self-distraction to cope with impulsivity” aparecerá en “Biology Letters”

miércoles, 22 de agosto de 2007

El primer metabolito ligado al sexo.


El cangrejo de la imagen es un individuo ginandromorfo lateral de cangrejo azul (Callinectes sapidus) y su análisis ha sido fundamental para comprobar la existencia de un metabolito exclusivo de los machos. Es la primera vez que se encuentra tal cosa en un animal y este hallazgo puede tener multitud de implicaciones como discutimos más adelante.

Un ginandromorfo lateral (término éste más propio de la entomología) es un individuo que presenta morfología femenina en una mitad de su cuerpo (en este caso, la que corresponde a la pinza roja) y masculina en la otra (la azul). Investigadores de la Universidad de Illinois en Chicago han podido comprobar en este individuo que existe una ruta enzimática que genera un metabolito concreto, el AEP (fosfonato - no confundir con fosfato - de 2-aminoetilo) que es exclusiva de los machos. En este individuo se encontró AEP en la parte masculina, pero no en la femenina y, dado que ambiente y alimentación eran los mismos, la conclusión es evidente.

Los investigadores, liderados por Robert Kleps, habían estudiado tejidos de las branquias, no correspondientes a órganos sexuales por tanto, de cangrejo azul de 6 años distintos, recogidos en dos zonas de marisqueo distintas. La técnica empleada para el análisis fue la resonancia magnética nuclear de fósforo 31. Los resultados obtenidos eran consistentes para todos los cangrejos, los machos tenían AEP pero las hembras no.

¿Qué trascendencia tiene el descubrimiento? Se da por sentado que la bioquímica de machos y hembras es la misma. Basándose en este supuesto la farmacología no distingue entre varones y mujeres: la aspirina, los suplementos vitamínicos o la insulina son iguales tanto para unos como para otras. La principal causa de dimorfismo sexual serían variaciones en la proporción de hormonas presentes en un organismo, estando todas las hormonas presentes tanto en machos como en hembras. También se encuentran diferencias en los niveles de metabolitos de bajo peso molecular en los aminoácidos en circulación, lípidos e hidratos de carbono y en el tejido cerebral. Sin embargo, este hallazgo nos dice que hay, al menos, una excepción a esta homogeneidad bioquímica entre sexos, el cangrejo azul.

La presencia de un metabolito puede afectar el desarrollo, la anatomía y la bioquímica de un animal. Las diferencias entre sexos en lo que respecta a la susceptibilidad a enfermedades o esperanza de vida pueden ser debidas a la presencia o ausencia de un metabolito.

Si un animal tiene un metabolito exclusivo de un sexo, podría ser que otros lo tuviesen, incluido el hombre. Este descubrimiento abre paso pues a dos líneas de investigación: la detección de metabolitos ligados al sexo en otras especies y la determinación de la ruta de síntesis del AEP y su función en el metabolismo.

martes, 21 de agosto de 2007

¿Sabemos porqué brilla el Sol? En parte, sí


En las estrellas del tamaño del sol, la mayor parte de la energía se produce mediante una cadena compleja de reacciones nucleares que convierten el hidrógeno en helio. Comenzando con los protones de los núcleos de hidrógeno, la cadena puede seguir diferentes rutas [ver imagen arriba] para terminar en la formación de un núcleo de helio y la producción de luz solar.

Los pasos a lo largo de dos de estas rutas requieren la presencia del isótopo berilio-7 (7Be en el gráfico), y los físicos han calculado que estos pasos serían responsables de entre el 10 y el 15% de los neutrinos solares. Las limitaciones de orden técnico habían impedido comprobarlo hasta ahora.

El detector gigante Borexino del laboratorio Gran Sasso, que se encuentra a más de un kilómetro bajo tierra, ha eliminado esas limitaciones, permitiendo al equipo investigador, integrado por más de cien científicos de diferentes instituciones, observar los neutrinos de baja energía, también llamados sub-MeV (por debajo de 1 megaelectrón-voltio), con un valor de 0,862 MeV.

Los neutrinos raramente interaccionan con otras formas de materia, lo que les hace ideales para investigar el interior del sol pues emergen de él prácticamente tal y como se crearon. Mientras no ha existido la posibilidad técnica de detectar neutrinos no ha sido posible más que teorizar sobre las reacciones de fusión en el interior del sol, sin comprobación experimental. Los resultados obtenidos muestran que la idea que se tenía de los procesos nucleares que hacen que el sol brille es esencialmente correcta, al menos en la parte de la cadena de reacciones en las que interviene el berilio-7. Esta parte de la cadena justifica un porcentaje minoritario de la energía, de acuerdo, pero hace más probable que los otros procesos se ajusten a lo predicho.
.
Los resultados también dan respuesta a otras cuestiones. El ultrasensible detector ha confirmado las teorías con respecto a porqué los experimentos previos habían encontrado menos neutrinos solares de los previstos a energías más altas, un problema que surgía de la extraña capacidad de las partículas de oscilar entre una forma y otra según viajan por el espacio. Mientras que el sol sólo produce neutrinos electrónicos, éstos pueden cambiar a neutrinos muónicos o tauónicos, que son más difíciles de detectar.

Princeton University: http://www.princeton.edu/main/news/archive/S18/76/21C35/index.xml?section=newsreleases
Original: No se ha publicado aún (aparecerá en Physics Letters B)
Cadena protón-protón (wikipedia): http://es.wikipedia.org/wiki/Cadenas_protón-protón

lunes, 20 de agosto de 2007

Repensando la materia oscura.

Hablábamos ayer de lo importante que es no dar nada por sentado en ciencia y hoy tenemos un ejemplo magnífico. Si hay algo claro en la materia oscura es que prácticamente no sabemos nada de ella. Sólo tenemos hipótesis de trabajo, que probablemente tengamos que revisar varias veces más antes de que se aproximen a la realidad observacional.

Nuevas imágenes del Observatorio de Rayos X Chandra de la NASA combinadas con registros de dos telescopios ópticos terrestres han dado como resultado un nuevo enigma: una colisión entre dos cúmulos gigantes de galaxias parece haber separado a las galaxias de sus núcleos de materia oscura.

La existencia de la materia oscura se postuló hace 75 años, cuando los astrónomos se dieron cuenta que la masa de la Vía Láctea no justificaba la velocidad de sus estrellas. Desde entonces, los científicos han buscado pruebas de la existencia de esta misteriosa sustancia [ver “Luz sobre la materia oscura”] que se supone compone el 25% del universo; la materia visible supondría un 5% y la energía oscura el resto. Su presencia parece necesaria para mantener a una galaxia unida. O eso se pensaba, porque los resultados del Chandra y sus homólogos en tierra muestran, aparentemente, una zona gigantesca de materia oscura y un grupo de galaxias yéndose cada una por su lado.

Las imágenes muestran cientos de galaxias fundiéndose en un cúmulo enorme llamado Abell 520, localizado a unos 2.400 millones de años luz. El Dr. Mahdavi, líder del equipo que ha realizado el estudio, ha podido determinar que algunas galaxias se han desplazado hasta 2 millones de años luz de sus masas de materia oscura, tan lejos que la gravedad ya no volverá a unirlas. Casi tan increíble es que las nubes de gas interestelar caliente que antes estaban en el interior de las galaxias (calentado por la colisión este gas emite rayos X) ha sido retenido por la materia oscura en vez de ser lanzado al espacio.

Es evidente que se necesitan nuevas observaciones antes de intentar sacar conclusiones. De momento, el propio Mahdavi estudiará Abell 520 con el Telescopio Espacial Hubble en busca de nuevas pistas.

La frase profética del astrónomo Arthur Eddington en referencia al universo sigue siendo válida: “Es más extraño de lo que podamos imaginar.”

domingo, 19 de agosto de 2007

¿Por qué el agua es azul?

¿Por qué el agua es azul? Algunos responderán que porque refleja el color del cielo, que a su vez se produce por la dispersión de la luz; otros, los menos, que por las impurezas que contiene; entre estos últimos, alguno habrá que llegue a mencionar la presencia de compuestos de coordinación del ion cúprico.

Pero, ¿qué importancia tiene preguntarse por el color del agua? La tiene y mucha. La ausencia de una respuesta clara, directa y comprobada es el típico ejemplo de la falta de mentalidad científica imperante en nuestra sociedad, incluida, paradójicamente, la propia comunidad científica. Se adivina fácilmente que la respuesta del ion cúprico no la da el ciudadano medio.

El quid de la mentalidad científica es la curiosidad. El científico, no nos referimos sólo al científico profesional, ha de ser una persona curiosa, pero no con una curiosidad cualquiera, sino inquisitiva y crítica, que no acepta fácilmente la primera respuesta que se le da. El verdadero científico comprueba, no sólo mediante observaciones o experimentos sino también con búsquedas bibliográficas, que lo que se afirma es cierto. Y este cuestionamiento debe ser permanente.

Esta falta de rigor es aún más grave en los científicos profesionales. Un ejemplo paradigmático lo hemos visto hace poco en la entrada en este blog titulada “El misterio del Rectángulo Rojo”. En las declaraciones que recogen las distintas notas de prensa, los distintos grupos de investigación que plantean las distintas hipótesis hablaban de sus modelos como si hubieran resuelto el misterio, cuando en ningún caso existe confirmación experimental. Aunque siempre nos quedará la duda de si son los gabinetes de prensa los que intentan dar a la noticia todo el bombo posible, los científicos deberían imponer su criterio deontológico, si lo tienen.

Este abandono del sentido común, la alta especialización, en muchos casos analfabeta de todo lo que no sea su campo, es lo que hace que preguntas tan sencillas como “¿por qué el agua es azul?” se sigan contestando con lo primero que viene a la cabeza tanto por científicos como por el ciudadano de a pie y, en algunos casos, que estas respuestas peregrinas se incluyan en los libros de texto.

Al menos que el lector de este blog lo sepa: el agua es azul, ¡atención!, ¡porque es azul! El agua debe su azul intrínseco a la absorción selectiva de la parte roja del espectro visible de la luz. Se trata de uno de los pocos ejemplos, si no el único, en el que la coloración de una sustancia no artificial se debe a transiciones vibracionales de la molécula. En el resto de los casos el color se produce por interacciones entre los fotones y los electrones de las moléculas.

Braun & Smirnov: http://www.dartmouth.edu/~etrnsfer/water.htm
El misterio del Rectángulo Rojo: http://cesartomelopez.blogspot.com/2007/08/el-misterio-del-rectngulo-rojo.html

sábado, 18 de agosto de 2007

Conexiones y redes: de niño a adulto.

Cuando un niño alcanza la edad de 6 años su cerebro ya tiene el tamaño que tendrá cuando sea adulto. Sin embargo nadie se atreverá a afirmar que un niño de 6 años piensa como un adulto. Entre otras, hay dos características que definen la forma de pensar adulta, cuya ausencia además hace que llamemos infantil al comportamiento del adulto que carece de ellas. Nos estamos refiriendo a la visión del largo plazo, el pensar en el futuro y evaluarlo, y establecer el contexto de los hechos que se memorizan. Un ejemplo de lo primero es ofrecer al niño de 6 años la posibilidad de una chocolatina ahora o dos dentro de una hora; otra es pedirle que nos cuente las circunstancias en la que le regalaron ese libro de cuentos que le gusta tanto.

Si el tamaño del cerebro es igual, debe haber algunas diferencias en su funcionamiento o estructura que expliquen estos comportamientos dispares. Las hay, y son unas diferencias que los aficionados a los ordenadores entenderán muy bien: en el adulto la transmisión de datos y conexiones son de mucha mejor calidad por un lado y, por otro, las redes de conexiones son independientes.

Un lugar muy común al hablar de inteligencia es relacionarla con la abundancia de sustancia o materia gris. El cerebro del niño de 6 años es básicamente materia gris. Conforme su cerebro madura la materia gris desaparece a diferentes velocidades en diferentes partes del cerebro. Las células cerebrales forman materia o sustancia blanca al recubrir las glías los axones de las neuronas con una capa de mielina, de la misma forma que un cable de cobre se recubre con un aislamiento plástico, evitando de esta forma la pérdida de señales eléctricas en su recorrido por las células nerviosas. Conforme la materia gris disminuye, la blanca aumenta. Esto explica que el cerebro pase a ser un órgano de, fundamentalmente, conexiones a corta distancia a uno con muchas conexiones a larga distancia. La prueba experimental de este hecho la acaba de aportar el equipo de Bradley Schlaggar de la Universidad Washington en San Luís. [1]

Steven Petersen ha propuesto que las 39 regiones cerebrales implicadas cuando se realizan determinadas tareas realmente trabajan en dos redes, la cíngulo-opercular y la frontoparietal. Basándose en los resultados de Petersen, Schlaggar y su equipo investigaron la evolución de estas dos redes. Sus resultados indican que en los niños la cíngulo-opercular (responsable de la durabilidad) está sujeta a la frontoparietal (responsable de la adaptación rápida), lo que explicaría el cortoplacismo de los niños. Estas dos redes se van separando conforme el niño crece y en el adulto son prácticamente independientes.

Por otra parte, respecto a la memorización del contexto de los acontecimientos, los estudios de la Dra. Noa Ofen del Instituto de Tecnología de Massachussets han demostrado que, mientras el lóbulo temporal medio (un área implicada en la formación de recuerdos) se activa tanto en niños como adultos cada vez que se les muestra una imagen, sólo los adolescentes comienzan a presentar actividad simultánea del córtex prefrontal lateral (un área implicada en la comprensión), mayor cuanta más edad, con el máximo en los mayores de 18. La Dra. Ofen también estudió los porcentajes de materia blanca, encontrando una correlación positiva entre materia blanca, recuerdo de detalles y edad.

Original (Schlaggar/Petersen): http://www.pnas.org/cgi/content/abstract/104/33/13507
MIT (Ofen): http://web.mit.edu/newsoffice/2007/memory-0805.html
[1] Esto implica la caida del mito de la materia gris. Sobre el papel de las glías en el cerebro puede consultarse “Usamos el 100% del cerebro”: http://cesartomelopez.blogspot.com/2007/08/usamos-el-100-del-cerebro.html




viernes, 17 de agosto de 2007

Superluminal, pero no tanto.

Los comentarios de algunos lectores sobre la noticia de ayer nos han hecho ver que aquí hay gato encerrado. La noticia original que publica mañana (sí, mañana) New Scientist incluye un comentario de Aephraim Steinberg, un experto en óptica cuántica de la Universidad de Toronto, que es muy esclarecedor.

El Dr. Steinberg no duda de los resultados de Nimtz y Stahlhofen. Sin embargo, Einstein puede descansar tranquilo, dice. Los fotones no violan la relatividad: es sólo una cuestión de interpretación.

Steinberg explica las observaciones de Nimtz y Stahlhofen mediante una analogía con un tren de alta velocidad de 20 vagones que parte de Chicago con destino Nueva York. El cronómetro se pone en marcha cuando el centro del tren deja la estación, pero el tren va dejando vagones en cada estación, con lo que su centro se mueve hacia delante. Por lo tanto cuando el tren llega a Nueva York con sólo 2 vagones, sin haber excedido la velocidad fijada, un observador en la estación puede afirmar, mirando el cronómetro, que parece que esta gente ha sobrepasado la velocidad autorizada. Han llegado antes de lo que deberían, pero ocurre que solo observa a los que salieron en cabeza, que siempre viajaron a la velocidad autorizada.

Queda pues claro que el uso de la noción de velocidad de señal que hacen Nimtz y Stahlhofen difiere de la de Einstein y que sus resultados experimentales están completamente de acuerdo con la causalidad de Einstein en el sentido ordinario. Esto fue señalado ya por Hegerfeldt de la Universidad de Göttingen en 2001.

La cuestión que se plantea aquí y ahora es si New Scientist está recurriendo al amarillismo para atraer lectores. El origen de la noticia de ayer está en un adelanto de la publicación del número de mañana de NS del que se hicieron eco distintos medios británicos (y nosotros). En ese adelanto no se decía nada de los comentarios esclarecedores del Dr. Steinberg, que nosotros hemos conocido por otras fuentes, ni de que los criterios de Nimtz y colaboradores son conocidos desde hace años.

New Scientist: http://www.newscientist.com/
Hegerfeldt: http://arxiv.org/PS_cache/quant-ph/pdf/0109/0109044v1.pdf

Nota: No podemos dejar de mencionar a orubi1969 de los foros de http://www.100cia.com/, que se dio cuenta del subterfugio inmediatamente y nos proporcionó, a los que frecuentamos esos foros, una lección magistral que incluía la referencia al trabajo de Hegerfeldt. Resultado de esa lección es esta entrada. Gracias, maestro.

jueves, 16 de agosto de 2007

Superluminal, más rápido que la luz.

Un par de físicos alemanes aseguran haber roto la barrera de la velocidad de la luz, un logro que revolucionaría nuestra comprensión del tiempo y del espacio.

De acuerdo con la teoría especial de la relatividad, nada, bajo ninguna circunstancia puede viajar a más de la velocidad de la luz, lo que se denomina velocidad superluminal. Sin embargo, los doctores Günter Nimtz y Alfons Stahlhofen de la Universidad de Coblenza afirman que podrían haber abierto una brecha en un aspecto fundamental de la teoría de la relatividad especial.

Los científicos han estado estudiando un fenómeno denominado efecto túnel fotónico. Los experimentos indicarían que habrían conseguido que los fotones pasasen por medio del efecto túnel de forma “instantánea” a través de barreras de varios tamaños, desde unos milímetros hasta un metro. Su conclusión es que los fotones atraviesan la barrera a velocidad superluminal.

El experimento, que aún debe ser confirmado por otros investigadores, se basa en el efecto túnel, un fenómeno descrito por George Gamow para explicar la desintegración de núcleos radiactivos en 1928 y ampliamente estudiado. El premio Nobel de 1986 fue concedido a Bining y Rohrer por el desarrollo de un microscopio basado en él. Se trata de un efecto mecanocuántico que consiste en que una partícula pueda atravesar una barrera de potencial sin tener energía suficiente para rebasarla por encima (en el sentido clásico), debido a que la probabilidad de que la partícula se encuentre al otro lado de la barrera es no nula.

La confirmación del resultado, aparte de una conmoción en el mundo de la física, supondría abrir la puerta a multitud de consecuencias paradójicas. Por ejemplo, si se puede viajar más rápido que la luz, un astronauta podría llegar a destino antes de partir.

Esta es la única violación de la relatividad especial de la que se tiene noticia.

Efecto túnel: http://es.wikipedia.org/wiki/Efecto_túnel
Telegraph:http://www.telegraph.co.uk/earth/main.jhtml?xml=/earth/2007/08/16/scispeed116.xml
Original: http://arxiv.org/abs/0708.0681

miércoles, 15 de agosto de 2007

La creciente popularidad de la panspermia

Parece que últimamente la teoría de la panspermia está suscitando nuevo interés. Este nombre, panspermia, es el que ha calado entre el público y es el que se viene usando habitualmente. En sentido estricto habría que hablar de exogénesis, la vida no habría sido plantada como una “semilla” en la Tierra, como las esporas de las que hablaba Svante Arrehnius, sino que las bases químicas para la vida, lo que se llama evolución química, se originarían en el espacio exterior. Pero, ¿cuáles son estos nuevos apoyos a la teoría?

La misión Stardust (Polvo se estrellas) de 2004 al cometa Wild 2 encontró una variedad de moléculas de hidrocarburos, los bloques con los que la vida de construye. La misión Deep Impact (Impacto profundo) al cometa Tempel 1 descubrió una mezcla de partículas de arcilla e hidrocarburos en el interior del cometa. Una de las teorías para el origen de la vida propone que las partículas de arcilla actuaron como catalizadores, convirtiendo moléculas orgánicas sencillas en estructuras más complejas.

Un equipo de la Universidad de Cardiff (Gales, Reino Unido) dirigido por el profesor Wickramasinghe sugiere que los elementos radiactivos pueden mantener el agua en forma líquida en el interior de los cometas durante millones de años, haciendo de ellos potenciales “incubadoras” ideales para los primeros pasos de la vida. Señalan además que los miles de millones de cometas en nuestro sistema solar y a lo largo y ancho de la galaxia contienen mucha más arcilla que la que se hallaba en la Tierra primitiva. Los investigadores han calculado la probabilidad de que la vida se originara en un cometa frente a que lo hiciera en la Tierra, su resultado es un 1 seguido de 24 ceros frente a 1.

Independientemente de lo anterior, un equipo liderado por el profesor Glaser de la Universidad de Missouri-Columbia abunda en la idea de que compuestos químicos esenciales para la vida como la adenina (componente de las proteínas y del ADN y el ARN) se pueden haber originado en las nubes de polvo interestelares y después haber llegado a la Tierra y otros planetas.

El modelo teórico elaborado por el equipo de Glaser muestra que no existe un gran impedimento para que se forme adenina en las nubes interestelares en las que ya se ha detectado cianuro de hidrógeno, por lo que ha solicitado se investiguen estas regiones en detalle. La adenina, por otra parte, ha sido encontrada en meteoritos.

La teoría de la exogénesis no sólo es cosa de laboratorios. En los próximos meses la Agencia Espacial Europea va a realizar dos experimentos para comprobar las posibilidades reales de esta teoría. Ambos experimentos irán a bordo de la misión Foton M3, que tiene previsto su despegue el próximo 14 de septiembre desde el cosmódromo de Baikonur en Kazajstán.

En el primero de ellos, dirigido por el profesor Parnell de la Universidad de Aberdeen, una roca sedimentaria con 400 millones de años de antigüedad será sometida a las condiciones de entrada en la atmósfera. La roca, del tamaño de un puño, que contiene moléculas consecuencia de la descomposición de algas, será protegida durante el despegue pero expuesta a las condiciones de extrema temperatura en la vuelta a la Tierra. Se espera que la parte exterior se funda o desintegre, pero que la parte interna pueda llegar al suelo. Habrá que comprobar qué compuestos químicos son capaces de llegar a la superficie terrestre. Este experimento está diseñado, en principio, para saber si se pueden encontrar biomarcadores fósiles en meteoritos procedentes de Marte (como se afirmó que se había encontrado en 1996).

El segundo experimento está diseñado específicamente para probar si la panspermia (aquí no decimos exogénesis) es posible. Este experimento, diseñado por el profesor de Vera de la Universidad Heinrich Heine de Düsseldorf, consiste en someter una roca colonizada por líquenes a las condiciones de la reentrada, para ver si pueden sobrevivir en estas condiciones. Un experimento a bordo de un cohete Soyuz diseñado por el profesor Leopoldo Sancho de la Universidad Complutense de Madrid en 2005, ya confirmó que los líquenes pueden sobrevivir en el espacio exterior.
.
PhysOrg.com (Wickramasinghe): http://www.physorg.com/news106316780.html
PhysOrg.com (Glaser): http://www.physorg.com/news106318860.html
New scientist: http://space.newscientist.com/article/dn12469-fiery-rock-will-test-whether-life-came-from-space.html
Original (Wickramasinghe): The Origin of Life in Comets (El origen de la vida en los cometas) pendiente de publicación en el International Journal of Astrobiology
Original (Glaser) [PDF]: http://www.liebertonline.com/doi/pdfplus/10.1089/ast.2006.0112