sábado, 31 de octubre de 2009

¿Qué hace un neurotransmisor como tú en un páncreas como éste?


La serotonina es conocida por ser un neurotransmisor en el cerebro. Liberada por una neurona y recogida por otra, regula el estado de ánimo y la agresión. Muchos antidepresivos, y la droga de abuso éxtasis, incrementan la estimulación de la serotonina. Pero también se encuentra fuera del sistema nervioso central, entre otros lugares, en las células beta del páncreas, encargadas de liberar la insulina para regular los niveles de azúcar en sangre. La serotonina se descubrió en las células beta hace más de 30 años, y desde entonces los investigadores se preguntan qué hace allí. En un estudio publicado por el equipo de Diego Walther del Instituto Max Planck de Genética Molecular en PLoS Biology, se demuestra que la serotonina juega un papel fundamental en el control de la secreción de insulina y que su ausencia lleva a la aparición de la diabetes. Lo que es más sorprendente es su mecanismo de acción, completamente diferente al de un neurotransmisor: actúa desde dentro de las células, no entre ellas, y en vez de formar enlaces breves y débiles con un receptor, crea fuertes y duraderos enlaces covalentes con una enzima.

Cuando se libera en el páncreas, la insulina ayuda a otras células del cuerpo a incorporar el azúcar presente en el torrente sanguíneo, alimentando las células y bajando el nivel de azúcar en sangre. La diabetes, en sus distintas formas, aparece cuando el sistema se descontrola. Antes de su liberación, la insulina se almacena en los gránulos secretores de las células beta. Estos gránulos también almacenan serotonina, que se libera a la vez que la insulina (de hecho, cuando se quiere seguir la liberación de insulina, muchas veces lo que se mide es la serotonina por que es más fácil de controlar).

Estudios anteriores han dado las claves de las actividades de la serotonina en otros tejidos. En las células que forman las plaquetas, los trombocitos, se une a un grupo de enzimas transductoras de señales llamadas GTPasas, provocando la liberación de los contenidos de la vesícula por exocitosis. A diferencia de las conexiones lábiles que tiene con los receptores en el cerebro, la serotonina se enlaza covalentemente a la GTPasa, una reacción llamada “serotonilación”, que está catalizada por una enzima transglutaminasa. Llama la atención que las GTPasas también contribuyen a la regulación de la secreción de la insulina en el páncreas, y que la falta de transglutaminasa lleva a la intolerancia a la glucosa. Ambos hechos sugieren que es un único mecanismo el que está funcionando en el páncreas.

Para comprobar esta hipótesis directamente, los investigadores examinaron ratones que carecían de triptófano hidroxilasa, una enzima clave en la síntesis de la serotonina, y que les hacía incapaces de sintetizar serotonina fuera del sistema nervioso central. Los ratones presentaban los clásicos síntomas de la diabetes: niveles altos de azúcar en sangre y secreción de insulina disminuida. También eran resistentes a los efectos de la pargilina, un medicamento que en los ratones provoca liberación de insulina, lo que sugiere que la ausencia de serotonina bloquea este efecto. La inyección de serotonina normalizó la secreción de insulina en los ratones.

Walther et ál. encontraron que la serotonina en las células pancreáticas unida directamente a las GTPasas, al bloquear la transglutaminasa, bloquea esta reacción, reduciendo la secreción de insulina. Los autores identificaron dos GTPasas identificadas que se sabe que juegan un papel en la secreción de insulina como dianas de la serotonilación. Pero, basándose en la gran cantidad de serotonina enlazada a proteínas que midieron, sugieren que la serotonina se une probablemente con multitud de proteínas diferentes, abriendo la puerta a un mundo de interacciones por descubrir.

El modelo que emerge de este estudio sugiere que, uniéndose a las GTPasas, la serotonina favorece la liberación de insulina como respuesta a la glucosa elevada. Aparte de resolver el misterio de qué hace un neurotransmisor en el páncreas, este estudio tiene algunas implicaciones clínicas importantes. La enfermedad que desarrollaron los ratones que carecían de triptófano hidroxilasa recordaba mucho a la humana conocida como diabetes tipo MODY (del inglés maturity onset diabetes of the young; diabetes juvenil sobrevenida con la madurez), lo que indicaría que podría existir una conexión entre esta enfermedad y una mutación del gen de la triptófano hidroxilasa, una posibilidad que requerirá más estudios. Sea esto así o no, los mecanismos de la serotonina abren posibilidades para el tratamiento de múltiples formas de la enfermedad, ya que influye directamente en la cantidad de insulina secretada. Dada la importancia médica de la diabetes (unos 200 millones de afectados en el mundo, con tratamiento de por vida) no es descabellado pensar que la modulación de la serotonina será un próximo objetivo en el desarrollo de medicamentos.

Referencia:

Paulmann, N., Grohmann, M., Voigt, J., Bert, B., Vowinckel, J., Bader, M., Skelin, M., Jevšek, M., Fink, H., Rupnik, M., & Walther, D. (2009). Intracellular Serotonin Modulates Insulin Secretion from Pancreatic β-Cells by Protein Serotonylation PLoS Biology, 7 (10) DOI: 10.1371/journal.pbio.1000229

viernes, 30 de octubre de 2009

Comunicación neuronal sin sinapsis.


Como es sabido las comunicaciones entre neuronas se producen en un pequeño espacio entre ellas llamado sinapsis. Esto sigue siendo cierto, pero un equipo de investigadores de la Universidad de Szeged (Hungría) liderado por Gábor Tamás informa en Nature de la existencia de neuronas que, en vez de concentrar la emisión de neurotransmisores en la sinapsis, los segregan en el espacio intercelular.

El equipo de investigadores realizó el descubrimiento examinando un tipo de célula cerebral llamado neurogliaforme, una internurona muy abundante en la corteza cerebral. Estudios anteriores han demostrado que las células neurogliaformes pueden inhibir la activación de otras neuronas mediante la segregación de un neurotransmisor llamado GABA (ácido gamma-aminobutírico), que habitualmente se encuentra en las sinapsis. Otros estudios sugieren que el GABA se puede difundir también hacia el espacio intercelular, donde lleva mensajes a neuronas no conectadas por sinapsis. Para tener una concentración suficiente de GABA intercelular se especuló con la idea de que muchas neuronas tendrían que emitirlo a la vez. Los investigadores querían comprobar esta idea.

Tamás et ál. usaron microscopía óptica y electrónica para examinar el tejido cerebral de ratas y humanos, para encontrar que las células neurogliaformes tienen axones con muchísimas ramificaciones [en la imagen, en rojo]. Estos axones “peludos” tienen una enorme densidad de sitios en los que puede emitirse GABA al espacio intercelular. Habitualmente la emisión de neurotransmisores tiene lugar en las sinapsis, pero el equipo pudo comprobar que sólo 11 de cada 50 sitios examinados en las neurogliaformes corresponden a una sinapsis. Experimentos adicionales confirmaron que una sola neurogliaforme, cuando es estimulada, libera suficiente GABA como para inhibir la actividad de las neuronas cercanas no conectadas por sinapsis.

Los investigadores también demuestran que las células neurogliaformes contienen receptores que pueden detectar incluso niveles muy bajos de GABA, lo que sugeriría que pueden comunicarse entre sí además de con otros tipos de células. Estos mismos receptores también son sensibles a los neuroesteroides, moléculas sintetizadas en el cerebro y ligadas con la ansiedad y la depresión. Las concentraciones de estas moléculas pueden fluctuar con el ciclo menstrual, durante el embarazo o durante períodos de estrés, por lo que los autores afirman que las fluctuaciones en las concentraciones de neuroesteroides podrían afectar a la actividad de estas células neurogliaformes.

¿Supondrá este hallazgo un cambio en nuestro enfoque para explicar cómo funciona el cerebro, basado hasta ahora en la comunicación sináptica?

Referencia:

Oláh, S., Füle, M., Komlósi, G., Varga, C., Báldi, R., Barzó, P., & Tamás, G. (2009). Regulation of cortical microcircuits by unitary GABA-mediated volume transmission Nature, 461 (7268), 1278-1281 DOI: 10.1038/nature08503

jueves, 29 de octubre de 2009

De cómo el gen egoísta usa a las abuelas.


La mayoría de las mujeres tienen su último hijo antes de los 40 años. ¿Por qué la evolución favorecería este corte, especialmente cuando la mayoría de los mamíferos se reproducen hasta que mueren? Un nuevo estudio [1], elaborado por el equipo de Leslie Knapp de la Universidad de Cambridge (Reino Unido) y publicado en Proceedings of the Royal Society B, viene a apoyar la “hipótesis de la abuela”, la idea de que las mujeres más mayores difunden sus genes con mayor eficacia ayudando a sus hijas a cuidar de los hijos de ésta.

En 1998 Kristen Hawkes (Universidad de Utah; EE.UU.) y sus colegas propusieron que las abuelas prestaban sus habilidades y experiencia al cuidado de sus nietos [2]. Hawkes y otros autores citaban a los Hazda, un grupo de recolectores de Tanzania, en el que las abuelas buscan tubérculos mientras sus hijas daban de mamar a sus bebés. Dado que los tubérculos se piensa que se convirtieron en una base de la alimentación en los primeros días de la evolución humana, puede que en nuestra especie hubiese una ventaja selectiva para “hacer de abuela” en vez de “hacer de madre” por parte de las mujeres mayores.

Durante la última década varios investigadores han intentado comprobar la hipótesis centrándose en la relación entre las abuelas y sus nietos. Algunos estudios encontraron una relación entre el hecho de que la abuela viviese cerca de sus nietos y/o viviese más tiempo y las tasas de supervivencia de los nietos. Otros estudios, sin embargo, no encontraron correlación alguna.

Para intentar resolver estas inconsistencias, el equipo de Knapp propuso la “hipótesis de la abuela unida por el X”. Hay varios grados de parentesco entre las abuelas y sus nietos, en particular en lo que concierne al cromosoma X. Así, las abuelas paternas, como todas las mujeres, tienen dos cromosomas X, y pasan uno de ellos a sus hijos que, a su vez, se lo pasan a sus hijas. Por tanto, las abuelas paternas tienen un nivel de parentesco del 50 por ciento con sus nietas, al menos en lo que se refiere al cromosoma X. Pero las abuelas paternas no tienen ningún cromosoma X en común con sus nietos varones, que obtienen su cromosoma X de la madre. Y las abuelas maternas están relacionadas en un 25 por ciento por igual con sus nietas y nietos en sus cromosomas sexuales, ya que cada uno de estos descendientes tiene sólo una probabilidad del 25 por ciento de recibir un cromosoma X concreto de una de sus abuelas.

Knapp y sus colegas se concentraron en la supervivencia de los nietos en siete sociedades (actuales e históricas) para las que existen registros familiares de calidad. Las sociedades analizadas incluyen aldeas de granjeros de Japón, Etiopía, Gambia y Malawi, así como ciudades de Alemania, Inglaterra y Canadá fundadas a partir de 1600. Los datos se obtuvieron de registros eclesiales y civiles. Cuando los datos de las siete poblaciones se combinaron en un meta-análisis, se encontró una correlación altamente significativa entre el grado de parentesco de las abuelas viviendo con o cerca de una familia y la tasa de supervivencia de sus nietos. De esta manera las abuelas paternas eran las más beneficiosas para la supervivencia de sus nietas y las que menos para sus nietos, mientras que las abuelas maternas mostraron unos efectos intermedios.

Queda sin responder, sin embargo, cual es el mecanismo exacto que lleva aparentemente a las abuelas a favorecer a algunos nietos frente a otros. No hay pruebas de que lo hagan a propósito. Un nuevo misterio por resolver.

Referencias:

[1]

Fox, M., Sear, R., Beise, J., Ragsdale, G., Voland, E., & Knapp, L. (2009). Grandma plays favourites: X-chromosome relatedness and sex-specific childhood mortality Proceedings of the Royal Society B: Biological Sciences DOI: 10.1098/rspb.2009.1660

[2]

Hawkes, K. (1998). Grandmothering, menopause, and the evolution of human life histories Proceedings of the National Academy of Sciences, 95 (3), 1336-1339 DOI: 10.1073/pnas.95.3.1336

miércoles, 28 de octubre de 2009

La inmunidad al cáncer de la longeva rata topo.


Viven en colonias subterráneas con una reina, el harén de machos favoritos de ésta, soldados para defender el sistema de túneles y obreros que continúan excavando a la busca de comida. Pero a pesar de tener la estructura social de un hormiguero o de una colmena, las ratas topo lampiñas son mamíferos del tamaño de un ratón. Y entre sus peculiaridades hay una que, si llega a ser comprendida, podría tener una gran relevancia para la salud y la longevidad humanas: su inmunidad al cáncer. El equipo liderado por Vera Gorbunova, de la Universidad de Rochester (EE.UU.), ha encontrado que las células de estas ratas tienen dos sistemas para inhibir su proliferación irregular, a diferencia de las células humanas que sólo tienen uno. Los resultados se publican en los Proceedings of the National Academy of Sciences.

Su vida es extraordinariamente larga para un roedor. Los ratones viven un par de años pero las ratas topo (Heterocephalus glaber) alcanzan unos venerables 28. Su longevidad es probablemente una consecuencia de su forma de vida. Los ratones viven poco porque tienen muchos depredadores; en este caso es mejor reproducirse rápidamente y de jovencitos que prepararse para una vejez que ninguno verá. Las ardillas grises, por otra parte, tienen menos enemigos y pueden vivir más de 20 años.

La rata topo lampiña tiene un estilo de vida incluso más seguro que las ardillas. Las reinas nunca suben a la superficie. Incluso los obreros se exponen únicamente cuando necesitan retirar suciedad de los túneles.

El principal peligro de una colonia es otra colonia de ratas topo que se introduzca en su sistema de túneles. Otro riesgo es la guerra civil que se desata en la colonia cuando muere una reina. Las otras hembras, que han permanecido estériles intimidadas por la presencia de la reina, vuelven a ser fértiles y luchan hasta que una se proclama vencedora. Pero las bajas son generalmente pocas y, presumiblemente debido a esta relativa seguridad, las ratas topo han desarrollado la capacidad de vivir 10 veces más que los ratones.

Los ratones son muy propensos al cáncer; en algunas razas el 90 por ciento muere de tumores. Los humanos tenemos mejores defensas contra el cáncer: supone el 23 por ciento de la mortalidad humana. Pero la rata topo ha llevado la resistencia al cáncer a otro nivel: simplemente, no lo padecen. Jamás ha sido observada su aparición espontánea.

Las células humanas normales que crecen en una placa de laboratorio presentan un comportamiento llamado inhibición por contacto. Una vez que una célula entra en contacto con otra forman una sola capa y dejan de dividirse. Las células cancerígenas, sin embargo, han eliminado esa restricción y siguen proliferando, formando una capa encima de otra.

El equipo de Gorbunova ha descubierto que tanto las células humanas como las de las ratas topo tienen el mismo sistema de inhibición por contacto, mediado en ambas especies por la expresión del gen p27. Pero las ratas topo, además, tienen una versión de acción temprana del mismo sistema y, presumiblemente, usan el sistema basado en el p27 sólo como sistema de reserva.

Cuando las células de rata topo cultivadas en placa de laboratorio tienen sólo breves contactos entre sí, dejan de crecer y dividirse. Este sistema temprano de inhibición por contacto esta mediado por el gen p16-ink4a. Los humanos también tienen el gen p16-ink4a, pero parece que en nosotros no interviene en la inhibición por contacto de las células. El sistema doble de las ratas topo puede ser parte de la explicación de su increíble resistencia al cáncer.

Otra diferencia a nivel celular entre los humanos y las ratas topo es que las células de éstas mantienen un sistema activo que permite a las células dividirse. La enzima telomerasa deja de producirse en las células humanas maduras, se supone que como una defensa contra el cáncer. Gorbunova et ál. creen que la rata topo se puede permitir mantener la telomerasa activa por lo efectivas que son sus defensas contra el cáncer. La ventaja evolutiva de una telomerasa activa es que permite que las células madre, responsables de la reparación y mantenimiento de los tejidos, vivan más.

Por otro lado, la longevidad en los roedores se asocia habitualmente a la restricción calórica, una dieta con un 30 por ciento menos de calorías. Los ratones y ratas de laboratorio sometidas a esa dieta desde el nacimiento pueden llegar a vivir un 40 por ciento más de lo habitual. Ocurre lo mismo con otras especies y algunos biólogos piensan que puede ser una antigua estrategia de supervivencia: durante las hambrunas las reservas del cuerpo se dedican al mantenimiento de los tejidos, con la idea de superar el tiempo de escasez y reproducirse más tarde.

La vida de las ratas topo parece regirse por una serie de ciclos comida-hambruna. Se alimentan de tubérculos, las reservas de nutrientes que mantienen algunas plantas en ambientes desérticos. Un tubérculo puede alimentar a una colonia de 100 ratas durante meses. Pero aunque tengan cuidado de roer el tubérculo sin matar la planta, llega un momento en el que deben de encontrar otro. Dado que las ratas no se aventuran a subir a la superficie, dependen para su supervivencia de la habilidad de sus obreros a la hora de excavar túneles para encontrar otro tubérculo en las proximidades.

Las ratas topo, es de esperar, pasan mucha hambre entre tubérculo y tubérculo. Sin embargo otra de sus peculiaridades es que llevan el reciclaje al extremo: si es necesario se comen sus propios excrementos. Esta continua alternancia de comida y hambre podría disparar los mismos mecanismos que activa la restricción calórica, según los investigadores.

Las investigaciones con estos fascinantes roedores acaban de comenzar. Seguro que volvemos a saber de ellos.

Referencia:

Seluanov, A., Hine, C., Azpurua, J., Feigenson, M., Bozzella, M., Mao, Z., Catania, K., & Gorbunova, V. (2009). Hypersensitivity to contact inhibition provides a clue to cancer resistance of naked mole-rat Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0905252106

martes, 27 de octubre de 2009

Viendo lo invisible.


Aunque damos por hecho que podemos ver todo lo que está en nuestro campo de visión, el cerebro selecciona, de hecho, los estímulos que llegan a la consciencia. Un nuevo estudio liderado por Caspar Schwiedrzik del Instituto Max Planck para la Investigacón del Cerebro (Alemania) revela que nuestros cerebros pueden entrenarse para ver conscientemente estímulos que, normalmente, serían invisibles. El artículo se publica en el Journal of Vision y es de acceso libre.


El cerebro es un órgano que se adapta continuamente a su entorno y al que se le puede enseñar a mejorar la percepción visual. Lo que el estudio del equipo del Max Planck demuestra es que la capacidad para producir conocimiento consciente también se puede entrenar. Esto implica que no hay una frontera fija entre las cosas que percibimos y las cosas que no percibimos, que esta frontera se puede desplazar.


Los investigadores mostraron en un ordenador a sujetos con visión normal una de dos formas, un rombo o un cuadrado, seguida inmediatamente por una máscara (una pantalla con una imagen que era una mezcla de ambas formas) [arriba, las tres imágenes]. Se les pidió a los sujetos que identificasen la forma que veían. La primera vez que realizaron el experimento la forma era invisible para todos los sujetos pero, tras unas cinco sesiones, los sujetos mejoraban a la hora de identificar tanto el cuadrado como el rombo.


La capacidad de entrenar los cerebros para ver conscientemente podría ayudar a las personas que padecen visión ciega, personas cuya corteza visual se ha visto dañada por un derrame cerebral o un traumatismo. Los pacientes con visión ciega no pueden ver conscientemente pero, a cierto nivel, sus cerebros procesan el entorno visual. Este estudio sugiere que, en principio, las personas con visión ciega podrían recuperar algo de consciencia visual y abre una completamente nueva línea de investigación.


Referencia:

Schwiedrzik, C. (2009). Sensitivity and perceptual awareness increase with practice in metacontrast masking Journal of Vision, 9 (10), 1-18 DOI: 10.1167/9.10.18

lunes, 26 de octubre de 2009

Planetas terrestres a la vuelta de la esquina: un posible nuevo método de detección de exoplanetas.


Un equipo de investigadores liderado por Jorge Meléndez, de la Universidad de Oporto (Portugal), propone un nuevo método para la búsqueda de exoplanetas terrestres basándose en la composición de la estrella del sistema. Su trabajo se publica en The Astrophysical Journal Letters.


En la actualidad se han descubierto cientos de exoplanetas orbitando estrellas. Sin embargo, la mayoría de ellos son gigantes gaseosos en vez de rocosos como la Tierra. Esto se debe probablemente a que los dos métodos empleados actualmente funcionan mejor con planetas grandes.


El equipo de Meléndez tuvo la idea de usar la composición química de la estrella como método para determinar la existencia de planetas rocosos tras comparar los espectros de absorción del Sol con los de 11 “gemelas solares” (estrellas que son similares físicamente al Sol) y 10 “análogas solares” (que son un poco menos parecidas). Las mediciones se hicieron usando el telescopio Magallanes del Observatorio Las Campanas (Chile) y el telescopio Keck (Hawái; EE.UU.).


Estudios anteriores, menos precisos, habían apuntado la idea de que la composición química del Sol era la típica de las estrellas. Meléndez et ál. dicen exactamente lo contrario: la composición del Sol es “bastante inusual”. Comparado con las gemelas solares, el Sol tiene la misma cantidad de elementos ligeros como carbono y oxígeno. Los elementos más pesados, como el aluminio, el hierro y el níquel, muestran una abundancia del 10 al 20% menor.


Según los investigadores existe una fuerte correlación entre la distribución de las abundancias de los elementos con sus temperaturas de condensación. Sugieren que los elementos con las temperaturas de condensación más altas, los llamados elementos refractarios, que “faltan” en la composición de la estrella estarían en los planetas. El proceso propuesto sería que durante la formación del Sol algo del gas condensaría como el polvo que finalmente formaría los planetas. El gas, ya sin polvo, continuaría su camino hacia el Sol.


Hay otras características del Sistema Solar que apoyan la idea del equipo de Meléndez de que la ausencia de elementos refractarios en el Sol podría ligarse a la presencia de planetas rocosos. Así, por ejemplo, la masa total de los elementos que faltarían en el Sol es similar a la cantidad total que se encuentra en los cuatro planetas rocosos (Mercurio, Venus, Tierra y Marte). O, también, que la corteza terrestre contiene relativamente pocos elementos ligeros y más pesados comparada con el Sol.


La propuesta de Meléndez et ál. es muy interesante, pero es básicamente una hipótesis basada en correlaciones (que, como sabemos, no implican causalidades). Hacen falta muchos más datos para confirmarla y, después, afinar un método. En el caso de que resulte fiable, es interesante señalar que una de las estrellas más similares al Sol según el estudio es Alpha Centauri, por lo que una observación directa de planetas rocosos sería más fácil al estar tan cerca de nosotros, a tan sólo 4,37 años luz. Tendríamos planetas como la Tierra a la vuelta de la esquina.


Referencia:


Meléndez, J., Asplund, M., Gustafsson, B., & Yong, D. (2009). THE PECULIAR SOLAR COMPOSITION AND ITS POSSIBLE RELATION TO PLANET FORMATION The Astrophysical Journal, 704 (1) DOI: 10.1088/0004-637X/704/1/L66

domingo, 25 de octubre de 2009

Einstein y...Michele Besso.


Michele Besso fue un amigo, una caja de resonancia y un poco el hermano mayor de Einstein. Besso era seis años mayor, y no sólo le ayudó con algunas de sus teorías científicas, sino que también se vio envuelto directamente en su vida personal: intervino en el primer matrimonio de Einstein, negoció en su nombre los términos del divorcio, y le aconsejó sobre cómo criar a sus hijos.

En 1905 Michele Besso, ingeniero mecánico de formación, trabajaba con Einstein en la Oficina Suiza de Patentes. Los dos hombres solían pasear por las calles de Berna discutiendo las posiciones filosóficas de Ernst Mach (que Einstein conoció por Besso), debatiendo sobre gustos musicales, hablando de judaísmo (Besso era sefardí, Einstein ashkenazi) y analizando los problemas candentes de la física. Las teorías que se estaban proponiendo de la luz y de la mecánica mantenían a Einstein despierto durante las noches, intentando comprender como podrían reconciliarse alguna vez. Einstein pidió ayuda a Besso, y durante diecisiete días los dos hombres discutieron cada aspecto del problema.

Entonces, una noche, la inspiración llegó y encontró a Einstein trabajando. Einstein apareció a primera hora de la mañana ante la puerta de Besso y, sin decirle hola siquiera, le espetó: “¡Gracias! ¡He resuelto completamente el problema!”. Einstein había resuelto sus problemas con la luz desarrollando su teoría especial de la relatividad. Besso fue la primera persona en escuchar la explicación de Einstein de una teoría que cambiaría las bases de la física.

En ese momento tanto Einstein como Besso parece que sabían que la teoría era “especial”. El artículo de Einstein sobre ella fue extraordinario en claridad y concisión, y más tarde Einstein diría que las cinco semanas que le llevó escribirlo y prepararlo para publicación fue un tiempo feliz. Aunque Besso no era de los que se quedaba atrás, está claro que la teoría especial era de Einstein y sólo de Einstein. El mérito de Besso estuvo en su habilidad para escuchar y en su capacidad técnica para absorber y criticar unas ideas revolucionarias provenientes de uno de los científicos más creativos que han existido. Einstein después se referiría a Besso como “la mejor caja de resonancia de Europa [para las ideas científicas]”. En el artículo sobre la teoría especial Einstein supo ser agradecido: “Para terminar, me gustaría decir que mi amigo y colega, M. Besso, me ha ofrecido constantemente sus valiosos consejos mientras estuve trabajando en este problema, y que estoy en deuda con él por muchas sugerencias interesantes”.

Einstein y Besso se mantuvieron en contacto por escrito durante el resto de sus vidas, aunque nunca colaboraron en un artículo. Su relación fue más la de dos hermanos. Einstein pedía consejo a menudo a Besso y Besso solía regañar a Einstein por su comportamiento. Las cartas entre los dos hombres contienen muchísima información personal sobre Einstein.

Los dos hombres se conocieron en 1895 cuando Einstein se hospedaba en la casa de su profesor Jost Winteler en Aarau (Suiza), mientras finalizaba el instituto. En aquella época Einstein desarrolló lazos muy fuertes con las personas del círculo de los Winteler: Paul, el hijo mayor, fue su primer gran amigo y posterior marido de su hermana Maja; Marie, la hija pequeña, fue su primera novia; y Besso, que también se hospedaba allí. Besso formalizaría su relación con los Winteler en 1898 al casarse con Anna, la hija mayor.

Una vez casado, Besso se trasladó a Milán como consultor técnico de la Sociedad para el Desarrollo de la Industria Eléctrica en Italia. Influyó en la sociedad para que contrataran a Einstein para un pequeño trabajo consistente en un estudio de cómo la electricidad irradia durante la corriente alterna. Einstein le devolvería el favor más tarde cuando le avisó a Besso de la existencia de una vacante de examinador de patentes de segunda clase en la Oficina Suiza de Patentes. En esa época Einstein era examinador de patentes de tercera clase y solicitó el puesto él mismo. Pero no parece que le ocasionara ningún problema que escogieran a Besso antes que a él. De hecho, Besso fue claramente bienvenido a la comunidad de Einstein en Berna.

Durante la década siguiente la relación de Einstein con su esposa Mileva se fue deteriorando, culminando el deterioro con el traslado a Berlín de la familia. Einstein se mudó a Berlín, entre otras razones, para estar cerca de su amante, Elsa. No es sorprendente, por tanto, que Mileva se deprimiese en Berlín. Sólo aguantó allí el tiempo suficiente para que Besso pudiese llegar para recogerla a ella y a sus dos hijos pequeños y llevarlos de vuelta a Suiza.

De esta manera, en 1914, Besso se convirtió en el intermediario entre Mileva y Einstein. El divorcio fue largo y amargo, con crueldad por ambas partes. Mileva estaba destrozada, Einstein distante, y ambos lloraban en el hombro de Besso. Besso supo mantener la cabeza fría. Censuró a Einstein por su comportamiento con su mujer, y protegió a éste de las posiciones más dramáticas de ella. En esa época Besso vivía en Zurich, a donde se había trasladado Mileva con los niños, lo que le permitió actuar como guardián de Hans Albert y Eduard.

Besso también estuvo allí cuando tuvo lugar la segunda gran crisis de la familia: el diagnóstico de la enfermedad mental de Eduard. Besso también asumió el papel de hermano mayor esta vez: gestionó toda la parte médica de la enfermedad de Eduard, mantuvo informado a Einstein, regañándole cuando no ayudaba, y consoló, junto a su mujer, a Mileva.

A pesar de todos estos líos familiares, la ciencia estaba casi siempre presente en las comunicaciones entre Einstein y Besso: el rechazo de algunos postulados de la mecánica cuántica, la nueva astronomía y el desarrollo de la teoría general de la relatividad son algunos ejemplos de cuestiones que discutieron los dos amigos.

Besso murió solamente unos meses antes que Einstein. Y si bien éste sintió profundamente la pérdida, supo recurrir a la ciencia como bálsamo. En la carta que envió en marzo de 1955 a Anna, su viuda, escribió: “Se me ha adelantado un poco a la hora de abandonar este mundo extraño. Esto no significa nada. Para nosotros los físicos creyentes [en la física] la distinción entre pasado, presente y futuro sólo tiene el significado de una terca ilusión”.

sábado, 24 de octubre de 2009

Una tercera vía a la fusión nuclear: la fusión aneutrónica.


La búsqueda de la panacea energética, la fusión nuclear, no puede ser abandonada así como así. Por ello, algunos se gastan miles de millones de euros de los contribuyentes en máquinas enormes que, piensan, son la mejor manera de generar las temperaturas y presiones necesarias para persuadir a los núcleos atómicos de que se fundan entre sí. Otros todavía le dan vueltas a la idea de la llamada “fusión fría”, y juguetean con aparatos llenos de electrodos hechos de materiales exóticos y electrolitos que contienen isótopos aún más raros.

Poca gente sabe sin embargo que puede que exista una tercera vía. El dispositivo experimental de Eric Lerner y su equipo de Lawrenceville Plasma Physics no se puede decir que quepa en lo alto de una mesa (tiene unos dos metros de lado) pero tampoco cuesta una barbaridad de dinero (ronda el medio millón de euros). También es cierto que no ha conseguido la fusión, todavía. Pero el 20 de octubre anunció que había alcanzado lo que sería el campo base en una escalada al Everest.

La máquina de Lerner se llama dispositivo de fusión por concentración de plasma denso. Funciona almacenando carga en condensadores y descargando después la electricidad acumulada rápidamente a través de electrodos introducidos en un gas que se mantiene a baja presión. Los electrodos están dispuestos como un ánodo (cargado positivamente) en el centro, rodeado de cátodos (cargados negativamente) más pequeños.

Cuando los condensadores se descargan, los electrones fluyen a través del gas, “golpeando” los electrones de los átomos del gas y arrancándolos de éstos, transformando de esta manera el gas en un plasma. Comprimiendo este plasma usando campos electromagnéticos, Lerner y sus colegas han creado un plasmoide, que es una pequeña burbuja de plasma que se puede hacer que esté lo suficientemente caliente como para iniciar ciertas formas de fusión. Según la teoría, los núcleos en el plasmoide se moverían tan rápido que cuando chocan entre sí vencerían la repulsión electrostática mutua y se fusionarían. Si, por supuesto, fuesen el tipo de núcleo apropiado.

Para la prueba, Lerner usó deuterio, un isótopo pesado del hidrógeno, como gas. Este es el combustible propuesto para los grandes reactores de fusión como el Reactor Experimental Termonuclear Internacional (ITER, por sus siglas en inglés) que, con un coste de más de 10.000 millones de euros, se está construyendo en Cadarache (Francia), o la Instalación Nacional de Ignición, de 3.000 millones de euros, en construcción en Livermore (EE.UU.). Sin embargo no es el objetivo de Lerner usar deuterio como combustible. Hay un truco. Y es que, si bien se parte de protones y el producto final es helio, lo que tiene lugar no es técnicamente una fusión (esto es lo que permite que el aparato sea tan compacto). Más bien es una forma de fisión nuclear. La fisión normal implica romper un núcleo de uranio o plutonio golpeándolo con neutrones. En la reacción que propone Lerner se romperían átomos de boro golpeándolos con protones (los núcleos de los átomos de hidrógeno). Este proceso se conoce, perversamente, como fusión aneutrónica. El nombre viene porque, de hecho, los núcleos de boro e hidrógeno realmente se fusionan [véase la imagen, cortesía de Torulf/Focus Fusion Society], pero el producto se rompe inmediatamente en tres núcleos de helio (p + 11B -> 3 4He) liberando en el proceso una enorme cantidad de energía.

Una diferencia importante con las reacciones que se pretenden llevar a cabo en los grandes reactores, es que en esta no se liberan neutrones. Desde el punto de vista de la generación de energía, esto es bueno. Dado que los neutrones no tienen carga eléctrica tienden a escapar del aparato, llevándose la energía con ellos. Los núcleos de helio tienen carga positiva, por lo que es más fácil dominarlos usando un campo electromagnético con objeto de despojarlos de su energía. Ello también significa que no pueden dañar las paredes del aparato, ya que no las traspasan, haciendo la operación menos radioactiva o, lo que es lo mismo, más segura.

Los plasmoides que ha conseguido el equipo de Lerner por ahora no son lo suficientemente calientes como para sustentar una fusión aneutrónica. Pero el principio de funcionamiento ha sido probado. Si consigue llevar su máquina hasta el punto de reventar átomos de boro, habrá conseguido algo que será una revolución tecnológica.


viernes, 23 de octubre de 2009

La función evolutiva del apéndice.


En muchos textos puede encontrarse la afirmación de que el apéndice vermiforme o cecal no tiene función conocida y que se trata de un vestigio de cuando era necesario digerir celulosa. Una investigación llevada a cabo por un equipo de investigadores encabezados por H.F. Smith de la Universidad de Arizona en Phoenix (EE.UU.) afirma, sin embargo, que el apéndice es un órgano especializado en albergar bacterias simbióticas esenciales para la salud. El estudio, basado en una comparativa anatómica y filogenética, se ha publicado en el Journal of Evolutionary Biology.

Para los humanos, la utilidad de tener un apéndice parece despreciable y, dada la prevalencia de la apendicitis, tener apéndice podría considerarse hasta peligroso. Este accesorio del intestino ha sido considerado durante mucho tiempo un vestigio de la época en la que los homínidos comían una alta proporción de vegetales que necesitaban una fermentación antes de poder ser digeridos. Más recientemente se ha propuesto que el apéndice juega un papel en el mantenimiento, mediado por el sistema inmune, de bacterias simbióticas en el intestino.

Efectivamente, el mejor conocimiento adquirido recientemente sobre la inmunidad en el intestino apunta a que la función aparente del apéndice en los mamíferos sería la de refugio de los microbios simbióticos del intestino, preservando la flora durante los momentos de infección gastrointestinal. Esta función favorecería la evolución y mantenimiento del apéndice, y esta es la idea que Smith et ál. intentan probar en su estudio en el que analizan la evolución del apéndice en los mamíferos.

El análisis anatómico comparativo llevado a cabo por el equipo de investigadores revela la presencia de tres morfotipos (variantes) de apéndice en los mamíferos, así como estructuras parecidas a apéndices en algunas especies que carecen de un apéndice verdadero. Los análisis cladísticos indican, por otra parte, que el apéndice ha evolucionado independientemente al menos dos veces: al menos una vez en los marsupiales diprodontes (canguros, koalas, etc.) y al menos otra en los Euarchontoglires (lo que incluye a los primates). No sólo eso, el apéndice además tiene una marcada señal filogenética en su distribución y ha sido mantenido en la evolución de los mamíferos durante, por lo menos, 80 millones de años. Todos estos datos indican que el apéndice cumple una función.

La diarrea era un peligro habitual durante la evolución de la humanidad. Dado que la apertura del apéndice es estrecha, puede escapar de la colonización por patógenos bacterianos. La reconstitución de las colonias de bacterias simbiontes, lo que conocemos como flora intestinal, después de una diarrea se produciría rápidamente a través de las poblaciones refugiadas en el apéndice. Por tanto, lejos de ser inútil, la selección positiva habría demostrado la utilidad del apéndice actuando para mantenerlo.

Referencia:

SMITH, H., FISHER, R., EVERETT, M., THOMAS, A., RANDAL BOLLINGER, R., & PARKER, W. (2009). Comparative anatomy and phylogenetic distribution of the mammalian cecal appendix Journal of Evolutionary Biology, 22 (10), 1984-1999 DOI: 10.1111/j.1420-9101.2009.01809.x

jueves, 22 de octubre de 2009

Astronomía de rayos X en el laboratorio: cómo reproducir las condiciones del disco de acreción de un agujero negro.


Un grupo de investigadores, encabezados por Shinsuke Fujioka de la Universidad de Osaka (Japón), ha creado en el laboratorio unas condiciones análogas a las que se encuentran en el disco de acreción de un agujero negro. Sus resultados se publican en Nature Physics.

Los astrónomos no pueden observar loa agujeros negros directamente porque su enorme gravedad impide que la luz escape de ellos (por eso son negros). El equipo de investigadores se ha centrado en lo que sí pueden ver, a saber, la nube de materia arremolinada que los rodea, el llamado disco de acreción. Cuando estos discos se ven triturados y calentados por la energía gravitacional del agujero negro brillan en rayos X. Analizando los espectros de estos rayos X se puede descubrir qué puede estar ocurriendo en las proximidades del agujero negro.

Sin embargo, no se sabe con precisión cuánta energía es necesaria para producir estos rayos X. Parte de la dificultad estriba en un proceso llamado fotoionización, por el que los fotones de rayos X, muy energéticos, arrancan electrones de los átomos del disco de acreción. La fotoionización supone una pérdida de energía de los rayos X que altera las características de sus espectros, lo que dificulta la medición precisa de la energía total que se está emitiendo.

Para tener una apreciación mejor de cuánta energía consumen estos átomos fotoionizados, el equipo de Fujioka ha recreado las condiciones del disco de acreción en la región más próxima al agujero negro. Para ello volatilizaron una bolita de plástico con la ayuda de 12 láseres, disparados simultáneamente, con una potencia de 0,3 TW (3·1011 vatios). Una parte de la radiación resultante (la que pasaba a través de una rendija) incidía sobre una cantidad de silicio, elemento muy común en los discos de acreción.

Lo que ocurre en el experimento es que, al incidir los láseres simultáneamente con tanta potencia, hacen que la bolita de plástico implosione, creando una masa gaseosa caliente, densa y fuertemente ionizada, lo que conocemos como plasma. Lo que era la bolita de plástico se ha convertido ahora en una poderosa fuente de emisión de rayos X parecida a la de un disco de acreción de un agujero negro. Estos rayos X fotoionizan el silicio, y la radiación resultante debería ser parecida a la detectada en la observación astronómica de los discos de acreción.

Efectivamente, la radiación obtenida en los experimentos es parecida a la medida procedente de Cygnus X-3 y Vela X-1. Cygnus X-3 es un sistema binario, constituido por un agujero negro y una estrella convencional de alta masa [en la imagen representación de un sistema de este tipo, cortesía de Dana Berry – CfA/NASA, con la zona emisora de rayos X representada como el anillo central amarillo en el disco de acreción, en rojo]. Por su parte Vela X-1 es otro sistema binario pero esta vez constituido por un púlsar y una estrella convencional masiva.

Con este método, midiendo la energía perdida por la fotoionización, los investigadores podrían medir la energía total emitida en la implosión y usarla para mejorar nuestra comprensión del comportamiento de los rayos X emitidos por los discos de acreción y, en general, del comportamiento de la materia y la energía en condiciones extremas.

Referencias:

Fujioka, S., Takabe, H., Yamamoto, N., Salzmann, D., Wang, F., Nishimura, H., Li, Y., Dong, Q., Wang, S., Zhang, Y., Rhee, Y., Lee, Y., Han, J., Tanabe, M., Fujiwara, T., Nakabayashi, Y., Zhao, G., Zhang, J., & Mima, K. (2009). X-ray astronomy in the laboratory with a miniature compact object produced by laser-driven implosion Nature Physics DOI: 10.1038/nphys1402

miércoles, 21 de octubre de 2009

Puedes aprender a controlar la actividad de una neurona concreta o cómo puedo leer tu mente neurona a neurona.


El pasado 19 de octubre, en el congreso que está celebrando la Society for Neuroscience, se han presentado los resultados de un estudio en los que se ha llegado a medir en personas, in vivo, la actividad de una sola neurona. Se ha podido comprobar qué neurona en concreto se activa cuando se reconoce a una determinada persona. En el estudio se demuestra por primera vez, además, que podemos controlar el funcionamiento de una neurona concreta. Esto tiene dos implicaciones, llamemos tecnológicas, aparte de las puramente científicas: por una parte, un desarrollo de este hallazgo podría facilitar el control de máquinas con la mente; por otro, el hecho de que la actividad sea medible de esta manera tiene su riesgo: la persona que pueda medirte sabrá en qué estás pensando. La presentación corrió a cargo de Moran Cerf, del Instituto de Tecnología de California (EE.UU.).

La investigación se llevó a cabo en personas con epilepsia a las que se les había implantado electrodos en el cerebro para detectar dónde se originan los ataques (esta técnica se conoce como electrofisiología intracraneal; véase De cómo el área de Broca procesa el lenguaje). Los investigadores usaron estos mismos electrodos para seguir la actividad de células individuales del cerebro en el lóbulo temporal medial, área que es importante para la memoria, la atención y la percepción.

Antes de comenzar la parte invasiva del experimento, Cerf et ál. habían mostrado a los voluntarios imágenes familiares de personas, objetos o lugares, escogidas en función de entrevistas en profundidad con los sujetos sobre sus gustos y preferencias. Para hacernos una idea, se incluían, entre otras, imágenes de Bill Clinton, Michael Jackson o Venus Williams. El objetivo era localizar neuronas en el cerebro que respondiesen a estas imágenes.

En cada paciente, los investigadores encontraron unas cinco neuronas que se activaban cuando el paciente miraba a una imagen de una cierta persona u objeto. Una persona podía tener, por ejemplo, una neurona Halle Berry, una neurona Marilyn Monroe, una neurona Torre Eiffel, una neurona Michael Jackson, y una neurona araña.

Una vez que estas neuronas estaban identificadas, los investigadores dieron un paso más: querían saber si los pacientes podían controlarlas pensando en una persona u objeto determinado. Para medir esto, el equipo de Cerf conectó los electrodos neurosensibles a un ordenador que mostraba imágenes representativas del pensamiento del sujeto. Cuando la neurona Marilyn Monroe se activaba, la pantalla mostraba una imagen de Marilyn Monroe como la que abre esta entrada.

Para ver lo bien que los pacientes podían controlar estas neuronas individuales, los investigadores desarrollaron un dispositivo experimental que ellos llamaron de “desvanecimiento”, una especie de competición entre las dos neuronas. Una versión del experimento implicaba una neurona que respondía a Josh Brolin y otra que respondía a Marilyn Monroe. Inicialmente, se mostraba a la persona una imagen híbrida de las dos estrellas de cine sobrepuestas en la pantalla de un ordenador. Cuando se le decía al sujeto que pensase en Josh Brolin, los electrodos registraban la actividad de esa neurona y enviaban los datos al ordenador, haciendo que la imagen de Marilyn se desvaneciese y que la de Brolin se hiciese más brillante. El experimento se daba por terminado cuando la imagen era completamente Brolin o Marilyn, o pasaban 10 segundos. Diez pacientes se sometieron a este experimento y dirigieron con éxito las imágenes entre un 60 y un 90% de las ocasiones. Conformen se hacían más pruebas, los pacientes aprendían y mejoraban en el control de las neuronas.

Todavía estamos lejos de poder leer los pensamientos más recónditos de una persona, pero estos resultados son un avance en esa dirección. Por otra parte, una mejor comprensión de cómo el cerebro codifica la información puede ser útil para construir máquinas que puedan ser controladas directamente por el cerebro. Ese tipo de máquinas podrían ser muy útiles para las personas con dificultades para comunicarse, como las tetrapléjicas.

martes, 20 de octubre de 2009

De cómo el área de Broca procesa el lenguaje.


Un método invasivo, usado por primera vez en humanos, demuestra que una pequeña parte del cerebro puede procesar tres tipos de datos diferentes, en tres momentos distintos, en un cuarto de segundo. Además revela que el área de Broca realiza más de una función en el procesamiento del lenguaje. El trabajo, encabezado por Ned T. Sahin de la Universidad de California en San Diego, se ha publicado en Science.

Este interesantísimo trabajo aborda dos cuestiones importantes: una, la forma en que los procesos cognitivos superiores, como el lenguaje, se implementan en el cerebro y, otra, la naturaleza de la que es, quizás, la región más estudiada de la corteza cerebral, el área de Broca. La primera prueba de que partes del cerebro se correspondían con partes de la mente fue el descubrimiento, por parte de Broca hace 150 años, de que pacientes con una parte concreta del cerebro dañada, lo que hoy se conoce como área de Broca, eran incapaces de hablar, pero el resto de sus funciones cognitivas no estaban afectadas aparentemente. En todos estos años no se ha avanzado demasiado en el conocimiento de cómo el área de Broca contribuye al lenguaje. Los resultados del estudio que nos ocupa sugieren que el área de Broca consiste realmente se distintas partes superpuestas, que desarrollan distintos pasos de procesamiento con un ajuste temporal en una fracción de segundo. Esta forma de funcionamiento ha podido pasar desapercibida hasta ahora debido al nivel de resolución de los métodos empleados.

Los resultados de Sahin et ál. se han conseguido mediante el uso de electrodos colocados en los cerebros de los pacientes [véase la imagen, tomada por rayos X, cortesía del Dr. Sahin]. Esta técnica permite a los cirujanos conocer qué pequeña porción del cerebro deben extirpar para aliviar los ataques que sufren los pacientes a la vez que salvaguardan la integridad de las partes sanas necesarias para el lenguaje. Los registros para la investigación se pudieron hacer, pues, mientras los pacientes estaban despiertos y receptivos. Este procedimiento, llamado electrofisiología intracraneal (ICE, por sus siglas en inglés), permitió al equipo de investigadores terner una resolución en la actividad del cerebro relacionada con el lenguaje con una precisión de un milímetro, espacialmente, y un milisegundo, temporalmente.

Este ha sido el primer experimento que emplea la ICE para documentar cómo el cerebro humano procesa la gramática y produce palabras.

Dado que el lenguaje complejo es una característica humana, ha sido muy difícil investigar sus mecanismos neuronales. Los métodos de imágenes del cerebro, como los escáneres de resonancia magnética funcional (fMRI, por sus siglas en inglés) son, en la práctica, todo lo que es posible usar en humanos, pero emborronan la actividad de miles de millones de neuronas en períodos de exposición largos. Como consecuencia, no se ha podido determinar en detalle si los mecanismos usados por los modelos lingüísticos o computacionales para producir un discurso gramaticalmente correcto se corresponden con el mecanismo que el cerebro usa realmente.

Para este estudio, los investigadores registraron la actividad de los cerebros de los pacientes mientras repetían palabras al pie de la letra o las producían en formas gramaticales (plural, pasado, etc.), una tarea que los humanos hacemos sin esfuerzo cada vez que pronunciamos una frase.. La ICE permitió a los autores estudiar tres componentes del procesamiento del lenguaje en tiempo real, determinar si actividades neuronales relacionadas se ponían en ejecución en serie o en paralelo, y si los patrones de actividad eran locales o distribuidos.

Los resultados muestran que procesos lingüísticos diferenciados se procesan en pequeñas regiones al área de Broca, separados en el tiempo y coincidiendo parcialmente en el espacio. Específicamente, los investigadores encontraron patrones de actividad neuronal que indicaban procesamiento léxico, gramatical y articulatorio (fonológico) a, aproximadamente, 200, 320 y 450 milisegundos después de la presentación de la palabra. Estos patrones eran idénticos independientemente de las palabras, ya fuesen sustantivos o verbos, y eran consistentes entre los distintos pacientes.

Se pudo comprobar que la identidad de una palabra impresa llega al área de Broca muy rápidamente después de haber sido vista, en paralelo a su llegada al área de Wernicke. Por lo tanto, los resultados contribuyen a descartar por incorrecta una idea que aparece en muchos libros de texto: que el área de Broca se encarga del lenguaje expresivo (hablar) mientras que el área de Wernicke se encarga del lenguaje receptivo (leer y escuchar). El área de Broca juega, pues, diferentes papeles, tanto en el lenguaje expresivo como en el receptivo.

Referencia:

Sahin, N., Pinker, S., Cash, S., Schomer, D., & Halgren, E. (2009). Sequential Processing of Lexical, Grammatical, and Phonological Information Within Broca's Area Science, 326 (5951), 445-449 DOI: 10.1126/science.1174481

lunes, 19 de octubre de 2009

Los neutrinos del Big Bang tienen un origen más cercano que la radiación de fondo de microondas.


Las observaciones del fondo de microondas de 380.000 años después del Big Bang han sido esenciales para la cosmología moderna, pero los neutrinos originados justo después del Big Bang llevarían información sobre el estado del universo cuando tenía menos de un segundo. En el número del 23 de octubre de Physical Review Letters (aunque ya disponible en arXiv) un par de investigadores apunta un hecho curioso, pero hasta ahora ignorado, acerca de estos neutrinos residuales: debido a sus masas, viajan más lentamente que la luz y, de hecho, tienen como origen una región del universo más cercana que la radiación de fondo de microondas (CMB, por sus siglas en inglés). Aunque para la detección de estos neutrinos residuales todavía falta mucho (suponiendo que sea posible), el artículo publicado por Mika Vesterinen de la Universidad de Manchester (Reino Unido) y Scott Dodelson del Laboratorio Nacional del Acelerador Fermi (EE.UU.) clarifica el tipo de información que se puede extraer de esos neutrinos.

Justo después del Big Bang el universo era una sopa caliente en ebullición de partículas elementales interactuando constantemente unas con otras. Conforme el universo se expandía y enfriaba, algunas partículas podían propagarse libremente largas distancias sin interactuar. Los neutrinos, a los que sólo afecta la fuerza nuclear débil que actúa a distancias muy cortas, se libraron de las interacciones pronto, menos de un segundo después del Big Bang, y viajan libres desde entonces (en el tiempo que lees esto unos cuantos billones han atravesado la pantalla de tu ordenador y a ti).

La CMB está compuesta de fotones, partículas que dejaron de interactuar mucho más tarde, en el momento en que los protones y los electrones empezaron a combinarse para formar átomos neutros, cuando el universo tenía 380.000 años. Este tiempo permite calcular que la CMB se origina a una distancia de la Tierra de más de 40.000 millones de años luz, teniendo en cuenta la expansión del universo. Dado que los neutrinos se “liberaron” mucho antes, estaba asumido que debían originarse en rincones del universo más lejanos que los de la CMB.

Pero los fotones no tienen masa, mientras que los neutrinos tienen una pequeña cantidad de masa, lo que hace que viajen más lentamente que la luz. Dodelson y Vesterinen han calculado cómo afectaría esta masa de los neutrinos a la distancia que estos neutrinos residuales han viajado desde la última vez que interactuaron.

Sus resultados son sorprendentes: si bien los neutrinos residuales han estado viajando durante más tiempo que la CMB, su velocidad menor significa que han cubierto una distancia mucho menor. El fondo de neutrinos (CNB, por sus siglas en inglés) se origina a una distancia de unos mil a diez mil millones de años luz, mucho más cerca que los 40 mil millones de años luz de la CMB. Si esto parece difícil de imaginar, recordemos que la “sopa de partículas” del universo primitivo estaba en todas partes, y los neutrinos residuales que llegan a nosotros hoy simplemente vienen de diferentes localizaciones en ese universo que los fotones más rápidos del CMB. Dodelson llega a decir que este cálculo debería haber estado en los libros de texto hace tiempo, pero que es algo que nadie se había parado a calcular.

Los cálculos indican que los neutrinos residuales se originan en un rango de distancias en el que las búsquedas astronómicas están dando muchísima información. El Sloan Digital Sky Survey (Rastreo digital del cielo Sloan) está llevando a cabo observaciones detalladas de las galaxias y cúmulos de galaxias que habitan estas regiones, y los próximos Dark Energy Survey (Rastreo de materia oscura) y Large Synoptic Survey Telescope (Gran telescopio de rastreo sinóptico) añadirán muchos más datos.

Si se consigue medir con precisión la CNB alguna vez esto permitiría a los cosmólogos unir los puntos entre las mismísimas “semillas” primitivas de estas regiones (tal y como aparezcan en el CNB) y las galaxias y cúmulos de galaxias que se formaron después. Una comparación como esta ayudaría muchísimo a comprender algunas propiedades del universo primitivo, como su contenido en materia y energía oscuras.

[En la imagen, primera observación de un neutrino]

Referencia:

Scott Dodelson, & Mika Vesterinen (2009). Cosmic Neutrino Last Scattering Surface Physical Review Letters arXiv: 0907.2887v1

domingo, 18 de octubre de 2009

Einstein y ...Alexander Friedmann.


El meteorólogo ruso Alexander Friedmann fue uno de los primeros científicos en aplicar las ecuaciones de la relatividad de Einstein a un modelo del universo. Friedmann creó un modelo que mostraba un universo en expansión, un modelo que más tarde se probó que es correcto. Pero Einstein rechazó el modelo de Friedmann, llegando a publicar que los cálculos estaban mal hechos. Tuvo que rectificar.

Alexander Friedmann [mantenemos esta grafía por ser la más extendida; firmó sus publicaciones en alemán como Friedman; la transcripción del cirílico al latino de su apellido es Fridman] fue testigo de las primeras semillas de una revolución en la cosmología mientras vivía la revolución en Rusia. Nació en San Petersburgo en 16 de junio de 1888 y murió en la misma ciudad con tan sólo 37 años, pero ahora la ciudad se llamaba Leningrado. Friedmann, por formación, era meteorólogo y, en sus últimos años bromeaba de vez en cuando diciendo que los matemáticos malos se hacen físicos, y que los físicos malos se hacen meteorólogos. Pero Friedmann tenía poco de mal físico y siempre estuvo a la última en los avances de su ciencia. Su apertura a nuevas ideas se la debió en parte a Paul Ehrenfest, que estableció un seminario de física en San Petersburgo en 1906 al que asistió Friedmann, y con quien desde entonces mantuvo una correspondencia fluida.

En 1920, Friedmann, tras un periodo en la Universidad de Perm, vuelve a su ciudad, entonces llamada Petrogrado, para enseñar matemáticas y física en la Universidad de Petrogrado y en el Instituto Politécnico. La Primera Guerra Mundial (1914-1918) había dejado aislada a Rusia de los últimos adelantos en la física, sobre todo alemana. Friedmann descubre en esta época la teoría general de la relatividad que Einstein había publicado en 1915. Se enseñó a sí mismo relatividad general leyendo directamente los artículos de Einstein, a pesar de que la mayoría de los físicos rusos ignoraron el asunto, y pronto empezó a sacar sus propias conclusiones que fue avanzando por carta a Ehrenfest.

Usando la relatividad general, Friedmann propuso un nuevo modelo del universo. Creyendo en la belleza y simplicidad perfectas de las matemáticas de Einstein, Friedmann se negó a ajustar las ecuaciones de la relatividad, como hiciese el propio Einstein, para incorporar una arbitraria “constante cosmológica” que permitiese garantizar la estabilidad del tamaño del universo. En vez de eso, el modelo de Friedmann tiene una distribución uniforme de materia. Este universo podría cambiar de tamaño ya sea expandiéndose o, posiblemente, expandiéndose para luego contraerse para expandirse otra vez, cíclicamente. Un universo que se expande implica un universo que era más pequeño. Llevando esto a su conclusión lógica el universo debió haber comenzado como un puntito minúsculo que se hizo mayor con el paso del tiempo. La idea de que el universo comenzó en un solo punto fue lo que más tarde evolucionaría hasta conocerse como teoría del Big Bang, Friedmann fue una de las primeras personas que consideró esta idea [el primero en proponerlo formalmente, sin embargo, fue Georges Lemaître en 1927 basándose, no en las ecuaciones de Einstein, sino en las leyes de la termodinámica].

Friedmann sabía que su modelo era una representación simplificada del universo y que no era la única solución a las ecuaciones de Einstein (de Sitter había publicado uno en el que universo no tenía materia, por ejemplo). Hasta qué punto creía realmente Friedmann que el universo había comenzado en un momento dado no está claro, pero sí es evidente que creía que su modelo era matemáticamente consistente y científicamente interesante, una herramienta más para ayudar a interpretar nuestro mundo. Friedmann publicó su modelo (“Sobre la curvatura del espacio”) en Zeitschrift für Physik en 1922 [1]. Einstein respondió en la misma revista tres meses más tarde con un sólo párrafo: “Los resultados concernientes al mundo no-estacionario, contenido en el trabajo [de Friedmann], me parecen sospechosos. En realidad resulta que la solución dada en él no satisface las ecuaciones de campo”.

Friedmann escribió una carta muy cortés a Einstein en la que probaba las bases matemáticas de su trabajo: “Considerando que la posible existencia de un mundo no-estacionario tiene un cierto interés, me permitiré presentarle aquí los cálculos que he hecho...para verificación y evaluación crítica. [Da los cálculos]...Si encontrase los cálculos presentados en mi carta correctos, por favor sea tan amable de informar a los editores de Zeitschrift für Physik acerca de ello; quizás en este caso publicará usted una corrección a su afirmación o dará la oportunidad de que una parte de esta carta se publique”.

Sin embargo, para cuando llegó la carta a Berlín, Einstein ya se había marchado de viaje a Japón. No volvería a Berlín hasta marzo, pero no parece que leyese la carta de Friedmann. Sólo cuando Krutkov, un colega de Friedmann en Petrogrado, se encontró con Einstein en la casa de Ehrenfest en Leiden en mayo de 1923 y le contó los detalles de la carta de Friedmann, reconoció Einstein su error. Escribió inmediatamente a Zeitschrift für Physik: “En mi nota previa he criticado [el trabajo de Friedmann sobre la curvatura del espacio]. Sin embargo, mi crítica, al convencerme por la carta de Friedmann que me comunicó el señor Krutkov, estaba basada en un error en mis cálculos. Considero que los cálculos del señor Friedmann son correctos y arrojan nueva luz”.

A pesar de ello, Einstein siguió rechazando la validez del modelo de Friedmann basándose en aspectos más efímeros. Einstein simplemente no estaba cómodo con la idea de un universo que cambiase con el tiempo. Y no estaba solo; la mayoría de los científicos contemporáneos tenía unas opiniones igual de enraizadas sobre la eternidad del universo, de que sólo podía ser estático y de que sólo podía haber existido durante eones en la forma y tamaño que tenía en ese momento.

En 1924, Friedmann publicó otro artículo (“Sobre la posibilidad de un mundo con una curvatura negativa constante del espacio”) [2] que completaba el de 1922 y con el que demostraba que tenía un dominio de las tres posibles curvaturas del modelo (positiva, nula y negativa) una década antes de que Robertson y Walker publicasen su análisis.

En 1929, cuando Edwin Hubble demostró que el universo de verdad se estaba expandiendo, Einstein aceptó por fin la posibilidad de que el modelo de Friedmann, y el de otros como el suyo, pudiesen ser interpretaciones razonables de la relatividad. Friedmann no viviría para verlo: había muerto en 1925 de fiebre tifoidea. Lo que se conoce hoy día como modelo estándar de la cosmología se llama métrica de Friedmann-Lemaître-Robertson-Walker.

Referencias:

[1]

Friedman, A. (1922). Über die Krümmung des Raumes Zeitschrift für Physik, 10 (1), 377-386 DOI: 10.1007/BF01332580

[2]

Friedmann, A. (1924). Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des Raumes Zeitschrift für Physik, 21 (1), 326-332 DOI: 10.1007/BF01328280

sábado, 17 de octubre de 2009

Me fío de ti porque soy guapo.


Una buena apariencia te puede ser muy útil. Los extraños evalúan a la gente atractiva como más digna de confianza y más honesta. Las estadísticas afirman, por si esto fuese poco, que los guapos ganan más dinero. Ahora, el equipo de Lisa DeBruine de la Universidad de Aberdeen (Reino Unido) informa en un artículo en Evolution and Human Behavior que este tratamiento deferencial hacia los guapos puede hacer que éstos se sientan más confiados cuando saben que los demás los pueden ver

Los psicólogos y los economistas saben desde hace mucho que la gente actúa de forma distinta cuando se la observa. En los juegos económicos que piden a los participantes que repartan una cantidad de dinero, los sujetos tienden a ser más generosos cuando los experimentadores simplemente colocan fotografías de ojos en la sala de experimentación.

Dado que la sociedad trata a la gente atractiva de forma diferente, el equipo de investigadores intentó determinar si el efecto de ser observado dependía de la apariencia de una persona. Para averiguarlo, los investigadores reclutaron 78 estudiantes de psicología de su universidad para que participaran en un juego. A los estudiantes se les presentaba una alternativa: dividir una suma de dinero en dos o confiar en un oponente que iba a dividir una suma mayor. Un jugador podía ganar más dinero confiando en el oponente.

Para provocar el efecto de estar siendo observado, los investigadores hicieron fotografías de los estudiantes y les dijeron que en algunas rondas los oponentes verían su foto y en otras no. Pero los investigadores estaban engañando a los sujetos: no existían oponentes. DeBruine y sus colegas se centraban únicamente en la decisión de los estudiantes sobre cuándo tenían que fiarse.

El equipo necesitaba una medida objetiva del atractivo de los participantes por lo que se eligió un jurado de 10 personas, no relacionadas con los participantes, para que les diesen una puntuación de 1 (feo) a 7 (guapísimo). Por otra parte los participantes también tenían que evaluarse a sí mismos según la misma escala.

Los estudiantes que el jurado consideró que eran más atractivos confiaban más en el oponente cuando se les decía que los oponentes podían ver su foto que cuando no. ¿Cuánto más numéricamente? El tercio considerado más atractivo confió un 69% más cuando suponían que podían ser vistos que cuando se les decía que los oponentes no los podían ver. ¿Y los feos? El tercio considerado menos atractivo confiaba en el oponente un 31% menos cuando suponían que les podían ver.

Esto por lo que respecta a las evaluaciones del jurado, porque no se apreciaba correlación estadísticamente significativa entre las autoevaluaciones y los aumentos o disminuciones de confianza. ¿Cómo es esto posible? Es algo aprendido: la gente considerada atractiva, aunque ellos no se estimen en tanto, termina dándose cuenta que le va mejor en las interacciones cara a cara que por teléfono. Así, aunque no estén pensando explícitamente en su atractivo, deciden concertar una cita para negociar algo que perfectamente pueden resolver por teléfono. Porque lo importante no es cómo yo piense que soy, sino cómo pienso que los demás creen que soy.

Referencia:

Smith, F., Debruine, L., Jones, B., Krupp, D., Welling, L., & Conway, C. (2009). Attractiveness qualifies the effect of observation on trusting behavior in an economic game Evolution and Human Behavior, 30 (6), 393-397 DOI: 10.1016/j.evolhumbehav.2009.06.003