lunes, 31 de agosto de 2009

Costes y beneficios de la musculatura desarrollada en los varones.


¿Por qué son los músculos de los varones mayores que los de las mujeres (61% más de masa muscular)? En parte, está claro, porque evolutivamente el varón era el que tenía encomendadas la lucha y la caza. Pero también, quizá, porque a las mujeres les gustan los hombres que pueden hacer estas cosas bien, y por lo tanto se ven atraídas por los hombres musculosos. Ambos fenómenos, competir con los miembros del mismo sexo y presumir ante los del opuesto, están sujetos a un mecanismo evolutivo conocido como selección sexual. Fue la selección sexual la que creó la cornamenta del ciervo o la cola del pavo real y, según William Lassek de la Universidad de Pittsburgh y Steven Gaulin de la Universidad de California en Santa Bárbara (ambas instituciones en los EE.UU.), también explica los músculos de los varones. Su investigación aparece publicada en Evolution and Human Behavior.

El rasgo definitorio de las características seleccionadas sexualmente es que son caras de mantener. Dado que, ya sea compitiendo o atrayendo, sólo vale lo mejor, los recursos disponibles se dedican a ellas, casi sin tener en cuenta las consecuencias. Lassek y Gaulin demuestran en su estudio que esto es cierto para la musculatura masculina.

Los investigadores tomaron sus datos de la Encuesta Nacional de Salud y Nutrición de los Estados Unidos, que recogió datos de 12.000 varones y mujeres estadounidenses durante 6 años. Encontraron que los varones requieren un 50% más de calorías que las mujeres, incluso después de corregir por niveles de actividad, y que su masa muscular es el mejor parámetro para predecir su ingesta de calorías (mejor que su ocupación, activa o sedentaria, o su índice de masa corporal, una medida de la obesidad).

Aparte del coste energético existe otro asociado a ser musculoso: los sistemas inmunitarios de los hombres son menos eficaces que los de las mujeres (lo que ya se sabía) y es peor cuanto más musculoso es el varón (esto es nuevo).

También hay beneficios. Cuanto más musculoso es un varón, informa de más compañeras sexuales, tanto en el último año como en toda su vida, y más temprano comienza a tener relaciones sexuales. Esto podría ser debido, en parte, a la capacidad de intimidar a rivales más débiles; pero el freno que pone la ley a las formas físicas de intimidación en las sociedades desarrolladas hace que sea más probable que sea la elección de las mujeres la responsable de estos datos. De hecho, estudios anteriores han confirmado lo que todo el mundo sabe, que las mujeres, en general, prefieren bíceps grandes y torsos triangulares.

Como los músculos tienen esos costes tan elevados, Gaulin y Lassek opinan que se dan las dos formas de selección evolutiva, cada una favoreciendo una característica distinta: la selección natural, que tiende a reducir el gasto metabólico y favorece la longevidad, y la selección sexual, que cambia los anteriores por oportunidades extra para aparearse. Este conflicto explicaría el rango de musculatura que se observa en los varones. En el pasado, el varón fuerte habría tenido mayores oportunidades de aparearse, pero el más débil le habría sobrevivido lo que le habría ofrecido mayor éxito reproductivo en el transcurso de su vida más larga.

La ironía para el débil es que hoy día pierde su ventaja. Las mismas leyes que le protegen de la agresión hacen que el musculitos tenga menos posibilidades de morir pronto a consecuencia de una pelea. La medicina moderna, por otro lado, compensa la debilidad del sistema inmunitario del musculitos frente a las infecciones letales.

Así que ya lo sabéis, el deporte es salud y éxito reproductor.

Referencia:

Lassek, W., & Gaulin, S. (2009). Costs and benefits of fat-free muscle mass in men: relationship to mating success, dietary requirements, and native immunity Evolution and Human Behavior, 30 (5), 322-328 DOI: 10.1016/j.evolhumbehav.2009.04.002

domingo, 30 de agosto de 2009

Einstein y...Marcel Grossmann


Marcel Grossmann fue compañero de clase en la Universidad y amigo muy cercano a Albert Einstein hasta su muerte en 1936, a pesar de las marcadas diferencias en personalidad. En la universidad, Grossmann era formal y respetuoso mientras que Einstein era impredecible y rebelde. Él mismo un científico consumado, presidente de la Sociedad Matemática Suiza en 1916, Grossmann trabajó con Einstein en las teorías de la gravitación de éste, publicando juntos en 1913.

La principal colaboración entre Einstein y Marcel Grossman se conoce como el artículo Einstein-Grossmann, un paso en la dirección de lo que sería la teoría general de la relatividad, publicado en 1913. La contribución de Grossmann estuvo en los detalles matemáticos para apoyar las tesis de Einstein (Grossmann era un especialista en análisis matemático y geometría). Grossmann fue el primero de una serie de colaboradores que tenían un dominio de las matemáticas superior al que tenía el propio Einstein. El artículo no ha pasado a la historia por ser una gran aportación: aunque fue un paso importante en el camino hacia la teoría final, el artículo Einstein-Grossmann está salpicado de razonamientos no demasiado consistentes.

Pero este es solo un ejemplo de toda una vida de ayuda a Einstein por parte de Grossmann. Grossman le dejaba a Einstein usar sus metódicos apuntes de clase, y éste sacó tanto provecho de ellos a lo largo de todos sus años universitarios que no pudo menos que dedicarle su tesis doctoral a su amigo.

Tras la graduación, Einstein no tuvo ningún éxito en la búsqueda de empleo como profesor; incluso le llegó a pedir consejo a Grossmann sobre si debía ocultar sus orígenes judíos (Grossmann también lo era). Al final, Grossmann tuvo que acudir al rescate. Convenció a su padre para que hablase con Friedrich Haller, el director de la Oficina de Patentes Suiza, para que éste contratase a Einstein. Después de un año en paro, un enchufe permitió a Einstein conseguir su primer trabajo. Un año después Grossmann se unía a su amigo en la oficina de patentes para, poco más tarde, abandonarla para irse de profesor al Politécnico de Zürich.

Por su parte, tras su annus mirabilis, Einstein fue aceptando trabajos que no se ajustaban a sus necesidades, culminando con el puesto que se le ofreció para enseñar en Praga. Einstein odiaba la ciudad por lo que, cuando Grossman le ofreció un puesto de profesor en el Politécnico de Zürich, donde ya era decano de física, Einstein se apresuró a aceptarlo. Pero la búsqueda del puesto perfecto continuó, y sólo un año después Einstein dejaba Zürich, a pesar lo que eso significaba para su gran amigo, para hacerse cargo de un puesto en Berlín.

La marcha de Einstein no afectó demasiado ni a su amistad ni a su colaboración. Sus teorías fueron publicadas en 1913, y Grossmann continuó siendo la piedra de toque con la que Einstein contrastaba sus ideas. Es a través de las cartas entre ambos como conocemos en qué estaba trabajando Einstein en un momento dado, ya que Einstein siempre mantuvo a Grossmann al corriente de sus investigaciones y Grossmann respondía con críticas constructivas (de hecho, parece demostrado que fue Grossmann el que sugirió el uso de la teoría de tensores para la relatividad general). Así, por ejemplo, en 1901, Einstein estaba investigando la teoría cinética de los gases, el movimiento de la materia con respecto al éter o el concepto de una fuerza molecular universal.

Tristemente, sin embargo, la enfermedad hizo su aparición en la vida de los dos amigos. Grossmann desarrolló esclerosis múltiple en los años 20. El hombre que era el apoyo de Einstein, desde pasarle los apuntes de las clases de matemáticas para que él pudiese asistir a otras más interesantes hasta cuidar de su hijo Eduard cuando fue hospitalizado con síntomas de esquizofrenia, pasando por conseguirle un empleo en más de una ocasión, murió en 1936.

Einstein escribió a la mujer de Grossmann para expresarle sus sentimientos: “Recuerdo nuestros días de estudiante. Él, el estudiante irreprochable, yo mismo, desordenado y soñador. Él, en buenos términos con los profesores y entendiéndolo todo, yo un paria, descontento y poco amado. Pero éramos buenos amigos y nuestras conversaciones delante de un café helado en el Metropole cada pocas semanas están entre mis recuerdos más felices”.

A pesar de la temprana muerte de su amigo, Einstein le guardó un cariño inmenso hasta el final de su vida. En 1955, poco antes de morir, Einstein redactó un texto autobiográfico, algo que odiaba hacer, pero que escribió, tal y como aparece en la dedicatoria, como homenaje a su amigo: “la necesidad de expresar al menos una vez en mi vida mi gratitud a Marcel Grossmann me dio el valor para escribir esto”.

Como homenaje a su contribución al desarrollo de la teoría, los Encuentros Marcel Grossmann sobre relatividad general se celebran cada tres años.

[En la imagen, de izquierda a derecha, Marcel Grossmann, Albert Einstein, Gustav Geissler y Eugen Grossmann]

Referencia:

Einstein, A, & Grossmann, M (1913). Entwurf einer verallgemeinerten Relativitätstheorie und einer Theorie der Gravitation Zeitschrift für Mathematik und Physik, 62, 225-265

sábado, 29 de agosto de 2009

Células adultas regresan al estado embrionario usando un sólo factor de transcripción.


Investigadores del Instituto Max Planck de Biomedicina Molecular (Alemania) encabezados por Jeong Beom Kim, informan en un estudio publicado ayer en Nature de que han conseguido que células madre adultas humanas regresen al estado embrionario usando un solo factor de transcripción, en vez de los cuatro que eran necesarios hasta ahora para producir la pluripotencia en las células.

A principios de año, el equipo de Hans Schöler (al que pertenece Kim) ya tuvo un sonoro éxito al usar un único factor de transcripción, OCT4, para devolver células madre adultas del sistema nervioso de ratones a la forma pluripotente, capaz de producir otro tipo de células, incluyendo células germinales (espermatozoides y óvulos). Lo que ha demostrado ahora el grupo de Schöler es que el mismo factor pude también inducir la pluripotencia en las células humanas.

Los investigadores infectaron células madre neurales de un feto con retrovirus que portaban, bien OCT4 humano o tanto OCT4 como KLF4. Éstos son dos de los cuatro factores que Shinya Yamanaka, y su equipo de la Universidad de Kyoto, usaron para crear células madre pluripotentes inducidas (iPSC o solamente iPS, por sus siglas en inglés) a partir de fibroblastos de ratones adultos en 2006, y a partir de células humanas adultas de la piel en 2007. Entre 10 y 11 semanas después de la infección con los retrovirus el equipo de Kim pudo comprobar que los cultivos celulares parecían de células madre embrionarias en ambas condiciones experimentales.

Exámenes posteriores revelaron que las células expresaban los marcadores celulares de las madre embrionarias, y que la expresión genética global se parecía a las células madre embrionarias humanas. Ensayos de pluripotencia in vitro confirmaron la capacidad de las células para generar las tres capas de las células embrionarias, e in vivo, las células se desarrollaron en diversos tipos de células, incluyendo las del epitelio respiratorio, del músculo esquelético, del cartílago y del epitelio del sistema nervioso.

Siendo este un avance importante no está exento de problemas. El vector retrovírico usado para incorporar los factores de transcripción se integra en el genoma de la célula lo que implica problemas potenciales para futuras aplicaciones clínicas. Por tanto, un aspecto a mejorar en este método para poder crear células madre seguras es la eliminación de los transgenes víricos, en concreto el oncogén c-Myc (uno de los cuatro factores de transcripción usados por Yamanaka) que causa frecuentemente tumores en ratones. Una posible alternativa al uso de retrovirus es expresar los factores de transcripción en forma de proteínas, que pueden añadirse directamente a las células pero, por ahora, este método requiere los cuatro factores [sobre este método véase Hallado el santo grial de las células madre, en este mismo blog].

Otros dos aspectos del método que necesitan revisión son, por una parte, el origen de las células de partida; se empleó tejido fetal, cuando lo que tiene sentido terapéutico es el uso de tejidos de adultos. Por otro lado, el tiempo necesario (más de 10 días) es manifiestamente mejorable.

El salvar estos inconvenientes y la reducción de los factores de transcripción al ideal de cero son las tendencias actuales en la investigación en iPSC. Cuando se consigan, que no se tardará mucho, puede que la medicina entre en una nueva dimensión.

[En la imagen, cultivo de células madre embrionarias humanas; en verde los núcleos, en rojo la superficie. Imagen tomada por Ren-He Xu, Universidad de Wisconsin en Madison]

Referencia:

Kim, J., Zaehres, H., Wu, G., Gentile, L., Ko, K., Sebastiano, V., Araúzo-Bravo, M., Ruau, D., Han, D., Zenke, M., & Schöler, H. (2008). Pluripotent stem cells induced from adult neural stem cells by reprogramming with two factors Nature, 454 (7204), 646-650 DOI: 10.1038/nature07061

viernes, 28 de agosto de 2009

Decenas de nuevos genes de resistencia a los antibióticos descubiertos en la flora intestinal.


Los millones de microbios que pueblan el intestino humano poseen gran cantidad de genes que confieren resistencia a los antibióticos que podrían pasar a microbios patógenos, según un estudio liderado por Morten Sommer de la Universidad de Harvard (EE.UU.). El equipo de investigadores informa en Science de que ha descubierto 90 genes bacterianos, hasta ahora desconocidos, capaces de conferir resistencia a los antibióticos, escondidos en los microbios recolectados en dos adultos sanos.

La realidad es que se sabe muy poco de cómo funcionan los antibióticos y tampoco se tiene demasiado conocimiento de un mundo tan extenso y complejo como el microbiano, no digamos ya la ecología microbiana. Esta falta de conocimiento viene acompañada por el hecho de que los humanos han expuesto sus cuerpos a una marea potencialmente peligrosa de antibióticos durante décadas, bien ingiriendo directamente fármacos o indirectamente a través de los productos agrícolas y de limpieza. Esta exposición ha seleccionado probablemente en nuestro microbioma los genes que confieren resistencia a los antibióticos ahora descubiertos. ¿Qué ocurre cuando este microbioma interacciona con microbios capaces de producir enfermedades?

Sommer y sus colaboradores tomaron muestras fecales y de saliva de dos adultos sanos que no habían sido tratados con antibióticos durante al menos un año. A partir de ellas consiguieron aislar 500 (quinientas) cepas bacterianas distintas. A continuación clonaron genes de esas cepas, los insertaron en E. coli y expusieron a estas E. coli a 13 antibióticos distintos para determinar qué genes conferían resistencia.

Además de encontrar decenas de nuevos genes que conferían resistencia, Sommer et al. comprobaron que casi la mitad de los genes de resistencia identificados por ellos eran idénticos a los genes de resistencia antibiótica encontrados en microbios clínicamente patógenos, como las cepas patógenas de E. coli y Salmonella enterica.

Cabe la posibilidad que haya habido una transferencia genética horizontal, común entre bacterias, entre las bacterias beneficiosas del intestino humano y las que causan enfermedades, aunque los resultados obtenidos no lo prueban de forma concluyente. Lo que sí nos dicen es que ha habido una historia evolutiva muy cercana entre las cepas del microbioma humano y los patógenos.

Han aparecido en los últimos tiempos muchas cepas de bacterias patógenas que son resistentes a multitud de fármacos. A pesar de ello muchos antibióticos siguen teniendo efecto, atención, si se administran adecuadamente. El problema es a futuro y es un sorteo en el que cada vez tenemos más probabilidad de que nos toque: la inmensa diversidad de genes de resistencia en el microbioma humano contribuirá probablemente a que aparezcan cada vez mayor cantidad de patógenos resistentes a los antibióticos.

Referencia:

Sommer, M., Dantas, G., & Church, G. (2009). Functional Characterization of the Antibiotic Resistance Reservoir in the Human Microflora Science, 325 (5944), 1128-1131 DOI: 10.1126/science.1176950

jueves, 27 de agosto de 2009

Mujeres y altas finanzas: hormonas, no sexismo.


El que la élite a la que los bancos y empresas que invierten en bolsa confían la toma de las decisiones más arriesgadas está dominada por los varones es un hecho incuestionable. ¿Significa esto que se discrimina a las mujeres simplemente por ser mujeres? Podría ser. Pero una investigación que acaba de publicarse en los Proceedings of the Nacional Academy of Sciences por el equipo de Paola Sapienza de la Universidad Northwestern (EE.UU.) da una alternativa: no es el sexo de una persona, per se, la base de la discriminación sino su nivel de testosterona. Aparte de ser una hormona sexual, la testosterona también rige el gusto por el riesgo. Si se tiene en cuenta el nivel de testosterona, al menos en Estados Unidos, el aparente sexismo desaparece.

El grupo de Sapienza trabajó con aspirantes a trabajar en bancos e intermediaros financieros (estudiantes de MBA de la Universidad de Chicago). Midieron la cantidad de testosterona en la saliva de los sujetos. También estimaron la exposición a la testosterona antes de nacer de los voluntarios. Esto se hace midiendo la relación entre las longitudes de los dedos índice y anular (un dedo anular largo indica alta exposición a la testosterona) y, y esto puede sorprender a algunos, midiendo la precisión con la que se puede determinar las emociones humanas mirando solamente a los ojos de la gente, que también correlaciona con la exposición prenatal a la testosterona.

A los estudiantes se les pidió que tomaran 15 decisiones con un determinado nivel de riesgo cada una. En cada caso había un 50% de probabilidad de ganar 200 dólares o un aumento gradual del resultado asegurado desde 50 dólares hasta 120. Parte del dinero se pagó realmente al final del experimento, para hacer las consecuencias reales. El punto en el cual un participante decidía pasar de la apuesta al resultado asegurado se tomó como una buena aproximación de su apetito de riesgo.

Tal y como los investigadores sospechaban, las mujeres y varones con los mismos niveles de testosterona tenían un apetito de riesgo similar. En otras palabras, las mujeres que tenían más testosterona eran más amantes del riesgo que las mujeres con menos, mientras que los datos para varones en la parte baja del espectro mostraban una relación similar. Curiosamente, la relación entre testosterona y toma de riesgos no era tan clara para varones con niveles de la hormona entre moderado y alto, aunque estudios anteriores habían mostrado que esta relación también podía ser significativa.

En todos los casos la correlación era mayor cuando se usaba la medición de la testosterona en la saliva, sugiriendo que es el aquí y ahora, más que los efectos de la testosterona en el pasado, en el desarrollo del cerebro, los que son responsables de la diferencia.

Para comprobar estos resultados en el mundo real, los investigadores siguieron el progreso de las carreras profesionales de los participantes después de terminar sus estudios. Como se esperaba, los varones escogían más que las mujeres trabajos en instituciones financieras ligados al riesgo. De nuevo, aparecía la correlación con los niveles de testosterona en la saliva. Los investigadores también comprobaron dos veces el nivel de riesgo de las carteras de inversión personales después de graduarse, en junio del 2008 (antes del crash bursátil) y en enero de 2009 (después del crash). Los resultados, que aparecerán en un próximo artículo, indican una fuerte correlación entre el riesgo financiero asumido y los niveles de la hormona.

¿Veremos a las empresas financieras, y no financieras, haciendo tests de testosterona en saliva a sus trabajadores?

Referencia:

Sapienza, P., Zingales, L., & Maestripieri, D. (2009). Gender differences in financial risk aversion and career choices are affected by testosterone Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0907352106

miércoles, 26 de agosto de 2009

Reemplazo de ADN mitocondrial defectuoso como medio para prevenir enfermedades.


Un grupo de investigadores ha conseguido por primera vez reemplazar con éxito el genoma mitocondrial defectuoso por otro sano en óvulos de monos que después fueron fertilizados y se desarrollaron con normalidad. Esta técnica podría ser usada para prevenir que los niños heredasen una variedad de enfermedades genéticas incurables causada por genes mitocondriales defectuosos. El equipo del Centro Nacional de Investigación sobre Primates de Oregón (EE.UU.), dirigido por Shoukrat Mitalipov, publican sus resultados hoy en la edición online de Nature.

Las mitocondrias, que generan la mayor parte de la energía que consume la célula, contienen su propio genoma, distinto del ADN del núcleo de la célula, que se hereda directa y exclusivamente de la madre. Las mutaciones en el ADN mitocondrial pueden hacer que la energía disponible para las células sea menor de la necesaria y, en última instancia, matarlas. Los defectos en el genoma mitocondrial se asocian a numerosas enfermedades, desde algunos tipos de diabetes a sordera, pasando por una forma de ceguera llamada neuropatía óptica hereditaria de Leber y desórdenes metabólicos que causan serios problemas hepáticos.

El grupo de Mitalipov encontró una manera de reemplazar el ADN defectuoso combinando la fertilización in vitro con la cirugía celular para generar óvulos funcionales en los monos rhesus. Primero, extrajeron el núcleo del óvulo de una mona donante (lo que sería una mona “sana”) y lo sustituyeron por el núcleo, incluyendo su ADN, de la mona “madre”. Para ello encontraron un momento en el desarrollo del óvulo en el que los ADN nuclear y mitocondrial están perfectamente separados, con lo que se pudo extraer el núcleo sin trazas de ADN mitocondrial. El óvulo así construido fue fertilizado con esperma del “padre”, creando un oocito que contiene los genes nucleares de los padres y el ADN mitocondrial sanos de otra hembra.

Después de implantar 15 embriones manipulados en 9 monas rhesus, los investigadores pudieron comprobar que los óvulos reconstruidos funcionaban perfectamente. De las nueve monas tres quedaron embarazadas, pariendo la primera de ella gemelos por cesárea el 24 de abril de este año. En total nacieron 4 monos sanos.

Esto que parece tan sencillo de hacer, era algo que se estaba intentando desde hace mucho. El próximo paso ya serán ensayos clínicos con humanos, aunque habrá que ver primero que tal se llevan esos dos ADN de dos monas distintas y si estos monitos crían monos sanos.

Referencia:

Tachibana, M., Sparman, M., Sritanaudomchai, H., Ma, H., Clepper, L., Woodward, J., Li, Y., Ramsey, C., Kolotushkina, O., & Mitalipov, S. (2009). Mitochondrial gene replacement in primate offspring and embryonic stem cells Nature DOI: 10.1038/nature08368

martes, 25 de agosto de 2009

El Proyecto Conectoma Humano, comienza el espectáculo.


Olaf Sporns, profesor de neurociencias en la Universidad de Indiana (EE.UU.), publicó un artículo en 2005 en el que atribuía los defectos a gran escala de la investigación en neurociencia general a la ausencia de una descripción anatómica de base, “fundacional”, del cerebro. Antes de ponerse a investigar, era necesario hacer un mapa.

Sporns propuso llamar a este mapa el “conectoma”. El nombre, obviamente, hace recordar a un proyecto importantísimo que había concluido dos años antes con éxito, el Proyecto Genoma Humano. El proyecto al que estaba dando nombre no era menos ambicioso: un atlas sistemático y completo de todas las conexiones del cerebro. Cuatro años después, Los Institutos Nacionales de la Salud (NIH, por sus siglas en inglés) de los Estados Unidos han anunciado en su Anteproyecto para la Investigación en Neurociencia el lanzamiento del Proyecto Conectoma Humano (HCP, por sus siglas en inglés), dotado inicialmente con 30 millones de dólares, con la esperanza de crear un mapa completo del cerebro adulto sano para 2015.

El cerebro humano se suele dividir en varios cientos de pequeñas áreas a las que se atribuyen funciones altamente especializadas. Vistas bajo el microscopio, muchas de estas áreas, que tienen un ancho de centímetros, presentan patrones de células claramente visibles. Cada una de estas áreas está conectada por millones de proyecciones neuronales con forma de hilo, los llamados axones, que corren en paralelo, enrollándose para formar lo que parece un cable grueso de fibra óptica. El cerebro funciona en base a procesos y estos procesos tienen lugar porque existen estas conexiones entre áreas especializadas.

La lógica tras el proyecto HCP está en que se cree que las diferentes áreas cerebrales adquieren sus características funcionales dependiendo de cómo se conectan unas con otras. Son las entradas y salidas de una neurona lo que determina qué función tiene. Por ello, como en otras ocasiones en biología, la estructura directamente define la función: las neuronas muy próximas procesarán la misma clase de información, y la conectividad entre estas regiones nos puede informar de cómo operan procesos más amplios.

Sin embargo, hay otros neurocientíficos para los que “conectoma” tiene un significado completamente diferente. Mientras que el proyecto de los NIH intenta trazar las conexiones a gran escala entre regiones cerebrales, algunos científicos, como los del Connectomeproject de Harvard, quieren escarbar más profundamente: aspiran a trazar en última instancia el cerebro humano neurona a neurona, construyendo un “diagrama de cableado” con todo detalle. De cierta forma el HCP es una respuesta a la perspectiva desalentadora de tener que determinar las miles de millones de conexiones neuronales del cerebro humano. Lo que han hecho estos puristas ha sido tomar otro camino: ciñéndose a la idea del mapa neurona a neurona, simplemente se han centrado en organismos más simples, para ir creciendo desde ahí. Hasta ahora, el único conectoma completo que ha sido determinado es el de nuestro viejo amigo el nemátodo Caenorhabditis elegans que, con sólo 302 neuronas, es uno de los organismos modelo más simples con un sistema nervioso.

En cualquier caso, ambos grupos están de acuerdo en que, al final, la microescala y la macroescala se encontrarán en un enorme conjunto de datos, idealmente con cada capa de complejidad informando a la siguiente. Por ahora, el NIH espera conseguir su objetivo a cinco años de tener completado un mapa región a región potenciando la colaboración entre científicos, muchos de los cuales han pasado años trabajando aisladamente, usando técnicas no verificadas y con pocas reproducciones de los datos obtenidos en laboratorios diferentes.

El impacto del HCP sobre la neurociencia será importantísimo, similar al Proyecto Genoma Humano. De hecho, habrá un antes y un después del HCP.

[En la imagen, interpretación de una imagen por difusión del córtex humano; mayor implica mayor número de conexiones]

Referencia:

Sporns, O., Tononi, G., & Kötter, R. (2005). The Human Connectome: A Structural Description of the Human Brain PLoS Computational Biology, 1 (4) DOI: 10.1371/journal.pcbi.0010042

lunes, 24 de agosto de 2009

Transplantes de genoma sin rechazo: un paso hacia la vida artificial.


En su camino hacia la creación de una célula sintética, investigadores del Instituto J. Craig Venter (EE.UU.) han desarrollado una técnica para generar cepas bacterianas modificadas a partir de genomas clonados y modificados en levaduras. Informan de todo ello en Science.

El año pasado, Venter, uno de los autores del artículo [*], informó de que su equipo había creado un genoma bacteriano sintético y lo había clonado en una célula de levadura. Sin embargo, fueron incapaces de transferir el genoma a una célula que lo usase para producir la versión operativa de un organismo. En este artículo, los investigadores presentan la técnica para hacer exactamente eso.

El equipo del Venter primero clonó el genoma de la bacteria Mycoplasma mycoides dentro de una levadura. Alteraron entonces el genoma, usando algunas del montón de herramientas que existen para la manipulación de los genes de la levadura. En el paso más crítico, transplantaron ese genoma bacteriano ligado a la levadura a una bacteria relacionada Mycoplasma capricolum, acuciándola para que tomara este “programa genético y lo cargase”, en palabras del autor destacado para recibir la correspondencia Sanjay Vashee, generando de esta forma una cepa mutante.

La dificultad que Vashee y el equipo tuvieron que superar para conseguir este logro estribaba principalmente en esquivar el equivalente bacteriano a un sistema inmunitario: las enzimas de restricción [en la imagen en verde y violeta, enlazada a una hélice de ADN]. Estas enzimas, que se cree que evolucionaron como forma efectiva de eliminar los genomas de los virus invasores de las células bacterianas, impedían el transplante del genoma modificado de M. mycoides al tipo salvaje de M. capricolum. El grupo realizó dos ajustes que solucionaron el problema. En primer lugar inactivaron las enzimas de restricción de M. capricolum. Por si esto no fuese suficiente, modificaron químicamente el genoma mutante de M. mycoides en los lugares donde las enzimas rompen habitualmente los genomas de los intrusos.

Décadas de investigación en la genética de las levaduras han proporcionado un amplio conocimiento de cómo realizar manipulaciones genómicas en éstas, un conocimiento que no existe para otros microorganismos. Esta técnica permite usar lo que se sabe de manipulación genética en levaduras para alterar los genomas de esos otros microorganismos.

El quipo del Instituto Venter está aplicando esta técnica a su objetivo a largo plazo de construir la “célula mínima”. Quitan trozos del código genético de M. mycoides y M. genitalium, y los genomas sin estos trozos se reimplantan para ver si las células todavía “funcionan”, de esta forma intentan averiguar qué es lo mínimo para la existencia de la vida... y después crearla desde cero.

[*] Y un personaje interesantísimo; responsable de que el genoma humano se completase en el 2000, entre otras cosas; si no le dan el Nobel será por motivos políticos; su autobiografía, A Life Decoded, se lee como una novela de acción trepidante, pero en vez de tiros hay cromosomas. No es la primera vez que recogemos en Experienta docet sus logros, por ejemplo Vida de síntesis.

Referencia:

Lartigue, C., Vashee, S., Algire, M., Chuang, R., Benders, G., Ma, L., Noskov, V., Denisova, E., Gibson, D., Assad-Garcia, N., Alperovich, N., Thomas, D., Merryman, C., Hutchison, C., Smith, H., Venter, J., & Glass, J. (2009). Creating Bacterial Strains from Genomes That Have Been Cloned and Engineered in Yeast Science DOI: 10.1126/science.1173759

domingo, 23 de agosto de 2009

Einstein y...Max Born


El físico alemán Max Born fue, junto a Niels Bohr, Max Planck, Werner Heisenberg y Einstein uno de los fundadores de la mecánica cuántica. Born y Einstein fueron amigos desde que se conocieron hasta la muerte de Einstein en 1955, y se mantuvieron frecuentemente en contacto a lo largo de varias décadas. Esta correspondencia es una fuente magnífica para historiadores e investigadores.

El primer encuentro entre Einstein y Born tuvo lugar dos meses después de que Einstein abandonase su trabajo en la Oficina de Patentes en 1909. Einstein dio una célebre conferencia en una reunión científica en Salzburgo en la que afirmó que los científicos pronto demostrarían que la luz podía ser considerada tanto una onda como una partícula. El mismo Einstein había predicho que la luz estaba constituida por partículas, los cuantos de energía que terminarían llamándose fotones, pero el sabía perfectamente que la descripción ondulatoria de la luz también parecía adecuada. Siendo un pensador creativo como era, aceptó fácilmente que podía resultar que la luz fuese ambas cosas. Born se acercó a Einstein después de la charla y, muy excitado por las ideas de Einstein, discutieron esta nueva visión “cuántica” de la luz.

Lo que Einstein no podía predecir fue la dirección que sus ideas tomarían cuando cayesen en manos de otros. En los siguientes 15 años, Niels Bohr, el mismo Born y otros aceptarían completamente esta dualidad onda-corpúsculo, y llevaron la mecánica cuántica más allá, describiendo un universo que estaba gobernado por este tipo de excentricidades. Había muchas interpretaciones de cómo la luz podía ser a la vez onda y partícula; la de Born era que la luz estaba constituida por partículas pero que su movimiento estaba guiado por una onda.

Los físicos que aceptaban la mecánica cuántica veían el mundo lleno de estas rarezas; la nueva ciencia también insistía en que todas las partículas fundamentales estaban gobernadas solamente por las leyes de la probabilidad y el azar, sin más predictibilidad que la que se puede hacer al apostar a la ruleta. Esta era una visión que Einstein no podía aceptar. Escribió a Born en 1925: “[...] la mecánica cuántica es ciertamente imponente. Pero una voz interior me dice que todavía no es la verdad. La teoría explica muchas cosas, pero no nos aproxima nada al secreto del “Viejo”. Yo, en cualquier caso, estoy convencido de que Él no está jugando a los dados”. Conforme Einstein expresaba esta opinión cada vez con más énfasis en sus intervenciones públicas, a Born le preocupaba que Einstein se estuviese alienando él mismo de la comunidad científica.

Viviendo en Berlín en la misma época, Born y Einstein tuvieron experiencias similares en Alemania. En 1918, tras terminar la Primera Guerra Mundial, los estudiantes revolucionarios de la Universidad de Berlín tomaron un edificio y retuvieron a varios empleados como rehenes. Einstein, pensando que tenía cierta influencia sobre los estudiantes, lo que era cierto, le pidió a Born que fuese con él a negociar la liberación de los rehenes. Einstein tenía la reputación de ser muy de izquierdas, cercano a los comunistas, y a los estudiantes les sorprendió que su amado profesor no les apoyase. En su autobiografía Born escribió: “Todavía puedo ver ante mí las caras atónitas de estos ansiosos jóvenes cuando el gran Einstein, que ellos creían de todo corazón que estaba de su parte, no los seguía ciegamente en su fanatismo”. Juntos los dos científicos ayudaron a conseguir una solución pacífica al conflicto, loe rehenes fueron liberados. [En la imagen Born en esta época]

Después de la Primera Guerra Mundial, el creciente nacionalismo en Alemania llevó a un antisemitismo que afectó tanto a Einstein como a Born, también judío. Ante la hostilidad de su tierra natal, Born terminaría emigrando a Escocia, mientras que Einstein se marchó a los Estados Unidos. Continuaron escribiéndose hasta la muerte de Einstein en 1955. A Born le entristecía sobremanera, sin embargo, que Einstein rechazase cada uno de los intentos que hizo para convencerle de la validez de la mecánica cuántica. Einstein discutió, y desde su punto de vista refutó, cada artículo y cada carta que Born escribió y nunca aceptó la nueva ciencia.

viernes, 21 de agosto de 2009

Cómo engañar a los del C.S.I.


Científicos de Israel han demostrado que es posible fabricar pruebas de ADN, minando la credibilidad de lo que se ha venido considerando la prueba más concluyente en los casos criminales. La investigación, llevada a cabo por miembros de la empresa Nucleix Ltd. y de la División de Identificación y Ciencias Forenses de la Policía de Israel, se ha publicado en Forensic Science International: Genetics.

Los científicos consiguieron fabricar muestras de sangre y saliva que contenían ADN de una persona diferente del donante de la sangre y la saliva. También demostraron que, teniendo acceso a un perfil de ADN de una base de datos, podían fabricar una muestra de ADN que encajase con el perfil sin obtener tejido de esa persona.

Es decir, se puede diseñar una escena del crimen para incriminar a cualquier persona de la que dispongamos su perfil de ADN, no digamos ya una muestra de saliva o sangre. Y ahora viene lo mejor: los conocimientos necesarios los tiene cualquier estudiante de biología y la colocación de las pruebas es más sencilla que intentar colocar huellas digitales falsas.

Pero otra consecuencia muy grave del descubrimiento es lo que supone para la privacidad de las personas.

Usando algunas de estas técnicas podría ser posible, extrayendo el ADN de una persona a partir de los restos de un vaso o una colilla, fabricar una muestra de saliva que puede ser enviada a un laboratorio para que haga pruebas de paternidad o compruebe el riesgo de contraer enfermedades. Para hacerlo gráfico: si consigo hacerme con un vaso en el que haya bebido el príncipe de Gales podría fabricar y entregar ante notario una muestra de sangre con la que demostrar que soy hijo de la reina de Inglaterra. Acaba de aparecer una nueva categoría profesional, el paparazzo de ADN, y un nuevo mercado, tráfico de cualquier cosa que contenga restos de ADN de famosos.

En el trabajo publicado, el equipo explica cómo le bastaba obtener una minúscula cantidad de ADN, un pelo de un varón para crear la muestra incriminatoria. Amplificaron el ADN del pelo hasta conseguir una cantidad considerable de ADN usando una técnica conocida, la amplificación genómica completa. Tomaron a continuación una muestra de sangre de una mujer, la centrifugaron para eliminar los glóbulos blancos, que contienen ADN, y a lo que quedó le añadieron lo que habían amplificado a partir del pelo del varón. Como los glóbulos rojos no tienen ADN, todo el material genético presente en la muestra de sangre era proveniente del varón. Para darle dramatismo, los investigadores enviaron la muestra fuera de Israel, a un reputado laboratorio especializado en análisis forenses (lo que conocemos por C.S.I.) de los Estados Unidos. El laboratorio certificó que era la sangre del varón.

Si lo anterior da miedo, lo que una mente perversa puede hacer usando la siguiente técnica da pánico. No hace falta ni la muestra física y se puede actuar a distancia. Veamos, cogieron muestras de ADN de un montón de gente y con ellas crearon una biblioteca con las posibles variantes que pueden darse en los trozos de ADN que se emplean en los análisis de identificación de ADN forenses. En estos análisis no se investiga todo el ADN sino sólo 13 trozos concretos (posiciones de los genes en el cromosoma, para ser precisos, los loci). Con esta biblioteca y sus muestras anexas pudieron reproducir cualquier perfil de ADN, simplemente mezclando las muestras correspondientes. Con sólo 425 retazos diferentes se puede reproducir cualquier perfil.

El engaño sólo se puede descubrir por un pequeño defecto: el método de ampliación genómica completa, que es necesario usar, no tiene en cuenta las marcas epigenéticas del ADN (no está metilado), por lo que un análisis exhaustivo del material genético, ciertamente no el rutinario actualmente, detectaría que la muestra ha sido fabricada.

Referencia:

Frumkin, D., Wasserstrom, A., Davidson, A., & Grafit, A. (2009). Authentication of forensic DNA samples Forensic Science International: Genetics DOI: 10.1016/j.fsigen.2009.06.009

jueves, 20 de agosto de 2009

¿Los antioxidantes ayudan a la supervivencia de las células tumorales?


Los antioxidantes, a los que se les suele atribuir la capacidad de proteger a las células de las reacciones químicas que las vuelven cancerosas, podrían ayudar a la supervivencia de las propias células cancerígenas, según un estudio elaborado por el equipo de Zachary Schafer, de la Universidad de Notre Dame (EE.UU.), que apareció ayer en Nature.


Antes de entrar en materia, y debido a la revolución en el tratamiento y prevención del cáncer que esto podría significar, conviene recalcar lo siguiente:

· El estudio dice lo que dice y no otra cosa. Es un primer resultado con dos antioxidantes muy concretos en unas condiciones muy concretas.

· Los resultados no son claramente extrapolables.

· Hay que repetirlo con otros antioxidantes.

· Hay que repetirlo en tejido vivo.

Aclarado lo anterior, ahora sí pasamos a ver lo que dice este interesantísimo estudio.


Las células epiteliales de los mamíferos sanos sufren la muerte celular programada (apoptosis) cuando se encuentran fuera de su en torno celular normal. Las células tumorales, sin embargo, reciben señales para sobrevivir de los oncogenes, que mantienen las células vivas cuando migran a diferentes partes del cuerpo (este es el fundamento de las metástasis). El equipo de Schafer estaba intentando comprobar la hipótesis de que los oncogenes ayudan a las células tumorales bloqueando la apoptosis, pero cuando impidieron la apoptosis en cultivos de células, las células se seguían muriendo cuando eran transplantadas fuera de su matriz extracelular de apoyo (su entorno natural).

En ausencia de apoptosis, los investigadores encontraron que lo que estaba matando esas células era la incapacidad de producir glucosa. Cuando, repitiendo el proceso, expresaron un oncogén de cáncer de mama en células tumorales separadas de su entorno, el metabolismo de la glucosa se volvió a activar, y con ello la generación de ATP (la moneda de cambio energética en las células). Lo sorprendente fue que, añadiendo dos tipos de antioxidantes también se evitaba que las células tumorales muriesen y también porque se volvía a producir ATP, pero esta vez por una ruta bioquímica diferente: en vez de por la producción de glucosa por la oxidación de ácidos grasos. Esto es, los antioxidantes tenían el mismo efecto para la supervivencia de una célula tumoral que un oncogén.

Los científicos encontraron el mismo resultado en el sistema de cultivo celular que mejor imita el tejido vivo: bloquear la apoptosis no era suficiente para hacer que las células tumorales sobreviviesen, pero neutralizar el estrés oxidativo con antioxidantes las mantenía vivas.

Como se ve, el resultado puede tener implicaciones importantísimas pero, como decíamos más arriba, precaución. No todos los tumores son iguales, la mejor simulación es diferente a un tejido vivo y cada antioxidante es de su padre y de su madre. Los antioxidantes empleados en el estudio (se dan marcas comerciales que nosotros no vamos a dar aquí) no son de los que mayor poder antioxidante tienen. Será muy interesante ver qué pasa cuando se pruebe, por ejemplo, con la vitamina C que es mucho más potente que los empleados. En cualquier caso, esto es el inicio como mínimo de una buena polvareda, con muchos intereses comerciales de por medio, veremos en qué queda.

[En la imagen células tumorales de cáncer de mama, en tonos violáceos. Las amarillas son células normales, algunas en proceso de apoptosis. Foto gentileza de Wellcome Images]

Referencia:

Schafer, Z., Grassian, A., Song, L., Jiang, Z., Gerhart-Hines, Z., Irie, H., Gao, S., Puigserver, P., & Brugge, J. (2009). Antioxidant and oncogene rescue of metabolic defects caused by loss of matrix attachment Nature DOI: 10.1038/nature08268

miércoles, 19 de agosto de 2009

Una solución a la paradoja del Sol débil.


Cuando el planeta Tierra estaba terminando de enfriarse después de su formación, el Sol era joven y débil. Tan débil que no emitía energía suficiente como para evitar que los recién formados océanos terrestres se congelasen. Pero el hecho es que no se congelaron. Esto es lo que se conoce como la paradoja del sol débil, paradoja que no ha tenido hasta ahora una solución satisfactoria. Científicos del Instituto de Tecnología de Tokio (Japón) y de la Universidad de Copenhague, dirigidos por Matthew S. Johnson (de esta última), presentan en los Proceedings of the National Academy of Sciences [1] una solución a la paradoja basada en el efecto invernadero provocado por un gas volcánico, el sulfuro de carbonilo. Este gas también pudo intervenir en el origen de la vida.

El sulfuro de carbono (fórmula química COS) es el principal compuesto de azufre que está presente de forma natural en la atmósfera ya que es emitido por los volcanes y las fuentes hidrotermales y, por lo tanto, está integrado en el ciclo del azufre en la Tierra. Su papel en el origen químico de la vida lo puso de manifiesto uno de los últimos artículos de nuestro admirado Leslie Orgel [2], en el que mostraba que el sulfuro de carbonilo actúa como catalizador en la formación de péptidos a partir de aminoácidos en medio acuoso en condiciones ambientales suaves.

El equipo de Johnson buscaba una respuesta a la paradoja del Sol débil analizando los porcentajes de isótopos de azufre en rocas antiguas y encontraron una anomalía, una mezcla de isótopos que no podía haberse producido por procesos puramente geológicos. Debía, pues, haber intervenido la atmósfera.

La radiación ultravioleta puede descomponer los compuestos de azufre. Distintas longitudes de onda de dicha radiación favorecen la descomposición de los compuestos de un determinado isótopo frente a los demás. Los experimentadores irradiaron óxidos de varios isótopos de azufre con distintas longitudes de onda ultravioleta hasta que encontraron una frecuencia con la que se obtenía la proporción presente en los sulfatos de las rocas analizadas. Posteriormente comprobaron qué composición atmosférica podía justificar dicha longitud de onda. Encontraron que esta longitud de onda es la que se obtenía si la luz del Sol debía atravesar una capa de COS.

Pero si existía una capa de COS, como hoy existe una de ozono que también nos protege de la radiación ultravioleta, debemos esperar otro efecto aparte de su influencia en la composición de las rocas, y es que el COS es un gas con un potentísimo efecto invernadero, mayor que el del dióxido de carbono. El sol durante el Eón Arcaico emitía una cantidad de energía un 30% menor que la que emite hoy día. Cálculos con un modelo computacional dicen que una atmósfera con una capa de COS es capaz de compensar ese 30%. Esto daría una explicación a la paradoja del Sol débil y las condiciones para que surja la vida.

¿Dónde está ahora esa capa de COS? Como dice el refrán español, cría cuervos y te sacarán los ojos. Con la aparición de la vida aumentó la cantidad de oxígeno atmosférico. Hasta ese momento la atmósfera era reductora, su cambio a unas condiciones más oxidantes provocó que una parte significativa del azufre procedente de los volcanes se convirtiese en aerosol de sulfato, con lo que el efecto neto fue una reducción de los niveles de COS en la atmósfera y la desaparición de la capa.

Por otra parte, el aerosol de sulfato tiene el efecto contrario al invernadero, refleja la radiación incidente, con lo que enfría el planeta. Un modelo de ordenador, apoyado en experimentos de laboratorio, para estas condiciones cambiantes arrojó como resultado que la disminución del COS y el aumento de la cantidad de aerosol de sulfato tuvo como consecuencia que la Tierra entrase en la edad de hielo que se supone que tuvo lugar al final del Eón Arcaico, hace 2.500 millones de años.

Es decir, que un cambio en la composición de los gases de la Tierra provocó un cambio climático. ¿Te suena?

Referencias:

[1]

Ueno, Y., Johnson, M., Danielache, S., Eskebjerg, C., Pandey, A., & Yoshida, N. (2009). Geological sulfur isotopes indicate elevated OCS in the Archean atmosphere, solving faint young sun paradox Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0903518106

[2]

Leman, L., Orgel,L., & Ghadiri, M.R. (2004). Carbonyl Sulfide-Mediated Prebiotic Formation of Peptides Science, 306 (5694), 283-286 DOI: 10.1126/science.1102722

martes, 18 de agosto de 2009

Hacia un aparato de Golgi artificial.


“¡Atención, pregunta!: ¿Para qué sirve el aparato de Golgi?” suena como una pregunta en un concurso de televisión para los muy preparados. La respuesta es “principalmente para darle los toques finales a las proteínas”. Muchas proteínas no podrían realizar adecuadamente su función a no ser que estén revestidas con la mezcla correcta de moléculas de azúcar, misión que realiza el aparato de Golgi [en la imagen]. En un reciente artículo aparecido en el Journal of the American Chemical Society un equipo del Instituto Politécnico Rensselaer (EE.UU.) dirigido por Robert Linhart, anuncia que han dado un paso de gigante en la fabricación de un aparato de Golgi artificial. Este logro puede ser de una enorme importancia en el tratamiento de distintas enfermedades, aparte de contribuir a la construcción de la primera célula artificial.

La necesidad de estas moléculas de azúcar es una de las razones por las que la fabricación de fármacos basados en proteínas no es tan sencilla como pudiera parecer. La biotecnología ha conseguido tomar los genes de un organismo (un humano, por ejemplo) y ponerlo en otro (una levadura) con objeto de conseguir grandes cantidades de una determinada proteína. Pero si el aparato de Golgi de la levadura aplica sus criterios de levadura a la hora de terminar la proteína en vez de aplicar criterios humanos, el resultado puede que no sea un fármaco eficaz. Algunas enfermedades, además, son el resultado de una glicosilación (que es como se llama el proceso de añadir azúcares a la proteína) incorrecta. Debido a la importancia que tiene comprender la glicosilación es por lo que es tan interesante este trabajo.

Aunque el aparato de Golgi artificial que el equipo de Linhart ha diseñado es mucho más grande que una célula, todavía es pequeño para los estándares de la ingeniería humana. Se ha construido en un chip de flujo de fluidos digital. La microfluídica, como ha dado en llamarse, es lo último en la tecnología para tener un “laboratorio en un chip”. La idea de analizar y sintetizar pequeñas cantidades de productos químicos no es nueva, pero se basaban en la incorporación de microtuberías (micropipetas) para mover los fluidos. Esto limitaba las aplicaciones posibles, ya que se necesitan diferentes combinaciones de tubos para mezclar los productos en el orden correcto para que puedan tener lugar las diferentes reacciones químicas.

La microfluídica digital elimina las tuberías. En vez de eso, las gotas del fluido se mueven aplicando cargas eléctricas a diferentes partes del chip. Estas cargas cambian las propiedades superficiales del chip, creando canales temporales que permiten que una gota se mueva de una parte del chip a otra. En el caso del aparato de Golgi artificial, esto significa que una molécula puede ser expuesta a la acción de una serie de enzimas, o de otras moléculas activas, en un orden determinado, una cada vez, y que ese orden lo pueda alterar el investigador a voluntad.

La cuestión es que, aunque se sabe qué enzimas son activas en un aparato de Golgi natural, los detalles de cómo modifican la proteína son poco conocidos. Si se pueden clarificar, sería posible imitar la acción de las enzimas a escala industrial y obtener así mejores fármacos.

La primera molécula que el equipo de Linhart pasó por el dispositivo fue el sulfato de heparán (también llamado heparán sulfato). Esta molécula es un precursor de la heparina, un importante anticoagulante que, a la presente, tiene que extraerse de la sangre por que no se puede sintetizar industrialmente. El sulfato de heparán no es una proteína, sino un glucosaminoglucano, es decir, una molécula parecida a un azúcar muy rica en azufre de las que participan en el proceso de glicosilación. Los investigadores unieron moléculas de sulfato de heparán a pequeñas partículas magnéticas (el ser magnéticas hace que sea más fácil extraerlas al final del proceso), y las hicieron pasar por el aparato de Golgi artificial que habían preparado para que imitase la ruta bioquímica que se piensa que convierte el sulfato de heparán en heparina.

Lo que salió se parecía mucho a la heparina. No sólo eso, también presentaba las propiedades anticoagulantes de la heparina, por lo que el aparato de Golgi parecía funcionar. Los próximos pasos son investigar como el proceso puede adaptarse a escalas mayores, y empezar a jugar con la ruta bioquímica para ver si se puede conseguir algo aún mejor que la heparina.

Referencias:

Martin, J., Gupta, M., Xu, Y., Akella, S., Liu, J., Dordick, J., & Linhardt, R. (2009). Toward an Artificial Golgi: Redesigning the Biological Activities of Heparan Sulfate on a Digital Microfluidic Chip Journal of the American Chemical Society, 131 (31), 11041-11048 DOI: 10.1021/ja903038d

lunes, 17 de agosto de 2009

El decir la verdad no es una decisión consciente...para algunos.


Los psicólogos que analizan el comportamiento moral han diseñado una gran cantidad de experimentos para intentar averiguar cómo “funciona” en el hombre, estudiando cómo decidimos engañar o jugar de acuerdo con las reglas, mentir o decir la verdad. Y los resultados son sorprendentes, en algunos casos perturbadores. Por ejemplo, hemos basado nuestra sociedad en la suposición, no probada, de que decidir decir la verdad o mentir está dentro de nuestro control consciente. Joshua Greene y Joseph Paxton, ambos de la Universidad de Harvard, han publicado un artículo en los Proceedings of the National Academy of Sciences según el cual el ser honesto, el decir la verdad, es automático (léase no sometido a una decisión consciente) en algunas personas.


Greene y Paxton registraron la actividad cerebral usando imágenes por resonancia magnética funcional (fMRI, por sus siglas en inglés) de los voluntarios del experimento mientras tomaban la decisión de mentir o no. A los sujetos se les pedía que predijesen el resultado de tirar una moneda al aire, pero que no lo dijesen hasta que la moneda cayese, con lo que tenían la oportunidad de mentir. Para motivarlos, se les pagaba por predicción correcta. Como control, otro grupo decía sus predicciones antes de que la moneda cayera. Posteriormente los investigadores midieron el nivel de éxito usando la estadística: se identificó a los mentirosos como aquellos que acertaban más de lo que la probabilidad era lógico que permitiese.

Greene y Paxton habían formulado la hipótesis de que si decidir decir la verdad era un proceso consciente (el resultado de resistir la tentación) las áreas del cerebro asociadas con el autocontrol y el pensamiento crítico se iluminarían cuando los sujetos dijesen la verdad. Si fuese automático, esas áreas permanecerían oscuras.


Lo que encontraron es que la honestidad es un proceso automático, pero sólo para algunas personas. Al comparar los escáneres de las pruebas con y sin la oportunidad de engañar, los científicos encontraron que para los sujetos honestos, el decidir decir la verdad no supone una actividad cerebral extra. Pero para los otros, el grupo deshonesto, tanto mentir como decir la verdad requiere actividad extra en las áreas asociadas con el pensamiento crítico y el autocontrol.


Estos descubrimientos, el automatismo de algunos actos que se suelen considerar decisiones conscientes, vienen a añadirse a todo un corpus que se ha venido publicando al respecto en los últimos tiempos. De algunas de estas publicaciones nos hemos hecho eco en Experientia docet (ver aquí). En un artículo reciente John Bargh, psicólogo social de la Universidad de Yale (EE.UU.) especializado en respuestas automáticas, afirmaba que incluso nuestros procesos mentales superiores, desde la persistencia a la hora de realizar una actividad a la creación de estereotipos sociales pasando por pararse a ayudar a una persona necesitada, se realizan espontáneamente como respuesta a estímulos ambientales. Paralelamente, John Haidt, Universidad de Virginia, se hizo conocido en el mundo de la psicología por los numerosos estudios que realizó en los que probó que hacemos juicios morales, como los que se suscitan en el dilema del tranvía, basándonos completamente en nuestras emociones y somos incapaces de explicar lógicamente porqué algunas cosas están bien y otras mal.


El estudio de Greene y Paxton sugiere que la honestidad en particular es automática sólo para algunos, lo que se puede interpretar como que una parte de la población es honesta de forma natural mientras que a otra le cuesta decir la verdad. Esto recuerda a esa idea evolutiva de que los que engañan y los honestos deben coexistir en un porcentaje dado dentro del reino animal. El clásico ejemplo de los cucos y los pájaros que crían las crías de cuco. ¿Existirá ese porcentaje en los humanos también?

Referencia:

Greene, J., & Paxton, J. (2009). Patterns of neural activity associated with honest and dishonest moral decisions Proceedings of the National Academy of Sciences, 106 (30), 12506-12511 DOI: 10.1073/pnas.0900152106

domingo, 16 de agosto de 2009

Einstein y el experimento de Michelson-Morley


Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió...

Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”).

James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer.

El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos.

Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento.

El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter.

Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones.

Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa).

Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento.

Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein.

Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro del suelo. Fue usted el que guió a los físicos por nuevos caminos, y gracias a su maravilloso trabajo experimental preparó el terreno para el desarrollo de la teoría especial de la relatividad”. El comentario honraba graciosamente a Michelson a la vez que eludía el asunto de si Einstein se había basado en su trabajo.

Después de la muerte de Michelson, en honor al 70 aniversario de Einstein, el famoso físico norteamericano Robert Millikan, que era uno de los protegidos de Michelson, escribió un artículo en el que establecía una conexión directa entre la teoría de la relatividad y la anterior búsqueda del éter de Michelson. Millikan escribió: “Se puede ver la teoría de la relatividad especial como basada esencialmente en una generalización del experimento de Michelson” [no nombra a Morley]. A continuación dice que tras la demostración de que no había éter “...los físicos de la luz andaban en tinieblas” buscando una nueva teoría de la luz. Millikan añade, “Entonces Einstein nos llamó a todos, ‘Aceptemos simplemente esto como un hecho experimental establecido y a partir de ahí veamos cuáles son sus consecuencias inevitables’, y él mismo se dispuso a la tarea con una energía y una capacidad que poca gente posee en esta Tierra. Así nació la teoría especial de la relatividad”. De la misma forma que Atenea surgió hecha y derecha de la cabeza de Zeus, así describió Millikan la teoría de Einstein como surgida del trabajo de Michelson.

La ciencia real, igual que la historia real, no es tan sencilla, pero la idea de que el experimento de Michelson-Morley llevó directa y claramente a la teoría especial de la relatividad es algo que pertenece al folklore de Einstein desde entonces, como es fácilmente comprobable en cualquier libro de texto.

Referencias:

[1]
Michelson,AA, & Morley,EW (1887). On the Relative Motion of the Earth and the Luminiferous Ether The American Journal of Science, 34 (203), 833-845

[2]