miércoles, 30 de septiembre de 2009

El contagio emocional se produce inconscientemente a través de vías neurológicas evolutivamente antiguas.


Dos pacientes, ciegos lateralmente debido a haber sufrido daños en una parte de sus cerebros, demostraron que eran capaces de percibir, de forma no consciente, y responder a las emociones expresadas en una serie de fotografías. El estudio, llevado a cabo por un equipo internacional liderado por Marco Tamietto y Beatrice de Gelder de la Universidad de Tilburg (Holanda), encontró que los pacientes contraían inconscientemente un músculo facial implicado exclusivamente en sonreir cuando la fotografía mostraba una persona feliz o un músculo implicado en fruncir el ceño cuando la persona de la fotografía mostraba miedo. Los resultados aparecerán publicados en los Proceedings of the National Academy of Sciences.

Los pacientes, ambos del Reino unido, padecen una afección poco común conocida como ceguera cortical parcial. Sus ojos están intactos pero tienen un daño en el córtex visual en un lado de su cerebro. Esto significa que no pueden procesar la información del campo visual del lado contrario, es decir, si el daño está en el lado izquierdo no pueden procesar lo que percibe su ojo derecho y viceversa.

A los dos pacientes se les enseñó una mezcla al azar de imágenes de personas que parecían felices o temerosas [parecida a la de la imagen], cada una durante dos segundos, una tras otra en rápida sucesión. Las fotografías, que mostraban las emociones tanto a través de expresiones faciales como de lenguaje corporal, se expusieron en el campo visual que podían ver y después en su lado ciego. Se les pidió que pulsaran un botón después de cada imagen para indicar la emoción que habían reconocido, o adivinado.

Adicionalmente los investigadores aplicaron electrodos especiales a las caras de los pacientes, lo que les permitía medir contracciones muy débiles de pequeños músculos implicados en la expresión de emociones, contracciones de las que habitualmente no nos damos cuenta.

Los pacientes contraían el músculo cigomático mayor al sonreir cuando se les mostraban las caras felices y el superciliar al fruncir el entrecejo ante las caras de miedo. La respuesta era la misma independientemente de si las fotografías se presentaban en el campo visible o en el ciego. Llamativamente la respuesta era más rápida cuando las imágenes se mostraban al lado ciego, quizás porque no había una evaluación emocional consciente para retrasar las cosas.

Estos resultados indicarían que nuestra tendencia espontánea a sincronizar nuestras expresiones faciales con las de otras personas en situaciones cara a cara (lo que se llama contagio emocional) tiene lugar incluso si no somos capaces de verlas conscientemente.

Es interesante resaltar que los sujetos no estaban imitando la expresión de otros, ya que sus caras respondían tanto si la emoción era expresada por una cara como si lo era por lenguaje corporal.

Mucha de la información visual que entra por la retina va directamente al córtex visual, que procesa la información de tal manera que somos conscientes de la imagen a la que estamos mirando. Pero una parte pequeña va directamente al mesencéfalo, a través de una conexión subcortical que es primitiva desde el punto de vista evolutivo. Esta conexión primitiva, que procesa las emociones y otras informaciones claves para la supervivencia, está intacta en ambos pacientes.

Por lo tanto, cabe interpretar los resultados como indicativos de que el contagio emocional se produce vía estructuras neurológicas evolutivamente antiguas y que no requiere necesariamente ni de la participación de las partes del cerebro más evolucionadas, ni de la consciencia visual ni de la participación de las neuronas espejo que se activan cuando reconocemos las acciones físicas de los demás.

Referencia:

(Pendiente de publicación. DOI: 10.1073/pnas.0908994106 )

martes, 29 de septiembre de 2009

Duplicación y evolución, los mecanismos de la vida, ya habrían estado presentes en la química prebiótica.


El que la vida se base en la duplicación de macromoléculas es algo que damos por sentado. Pero ¿por qué es esto así habiendo otras alternativas? Hisashi Ohtsuki de la Agencia de Ciencia y Tecnología de Japón y Martin Nowak de la Universidad de Harvard (EE.UU.) han presentado la comparación entre dos modelos en los que un sistema puramente químico en el que tienen lugar procesos de polimerización al azar (a este sistema lo llaman previda) da lugar a, por un lado, moléculas catalizadoras (previda catalítica) y, por otro, construye cadenas que se duplican (duplicadores). Los resultados explican por qué la duplicación es más eficiente y es la opción de crecimiento molecular en la que se basa la vida. Por otra parte muestra que la selección natural, la evolución, empezó antes que la propia vida. Su trabajo ha sido publicado en los Proceedings of the Royal Society B.

En este modelo, la previda está constituida por dos tipos de monómeros (0 y 1) que se unen al azar para formar cadenas de polímeros. Añadiendo un 0 ó un 1, se producen cadenas más largas a partir de otras más cortas. Los investigadores crearon un árbol de la previda sencillo basándose en este proceso de crecimiento, donde un 0 ó un 1 se añade al final de la cadena precedente para crear una más larga [en la imagen]. Aunque comienza con un solo monómero, este árbol de la previda tiene infinitas estirpes.

En la primera variante del modelo algunas de estas secuencias de la previda serán catalizadores, y podrán mejorar ciertas reacciones en la previda. Los catalizadores más abundantes serán aquellos que, específicamente, incrementen la velocidad a la que los monómeros se añaden a las cadenas en las reacciones específicas que los crean. Por ejemplo, si 0100 es un catalizador que cataliza los procesos 0 ->01, 01->010 y 010 -> 0100, será más abundante que otro como 1000 que sólo catalice 10->100 y 100->1000. A los catalizadores como 0100 los llaman los investigadores “cadenas prebióticas perfectamente catalizadas” (CPPC).

La competencia entre la previda y la previda catalítica por los monómeros disponibles crea unos determinados umbrales de selección que limitan el tamaño de las cadenas. Los investigadores determinaron que la actividad catalítica de una cadena debe aumentar exponencialmente con la longitud de la propia cadena para permitir que mantenga unos niveles altos de abundancia; si no se incrementa la actividad catalítica la cadena más larga se hace menos abundante.

En la segunda variante algunas cadenas de la previda llegarán a ser duplicadores. La diferencia de funcionamiento entre un duplicador y un CPPC es que el catalizador se une a una cadena incrementando la velocidad a la que se añade un monómero para después separarse, mientras que un duplicador se mantiene unido a la cadena en crecimiento.

En la competencia entre la previda y los duplicadores, el umbral de actividad duplicadora converge en un valor fijo, lo que sugiere que incluso los duplicadores largos pueden mantener su abundancia alta.

Si la previda da lugar a catalizadores y duplicadores provocando la competencia entre los sistemas, la capacidad de alcanzar mayor longitud de los duplicadores, o lo que es lo mismo, la existencia de mayor número de duplicadores activos en competencia con los catalizadores, es lo que daría su ventaja a los duplicadores. Esto no es más que una forma de la selección natural. La selección natural ya estaba pues presente cuando la química se convirtió en vida, una vida que se basaría en la duplicación y la evolución.

[Imagen cortesía de Ohtsuki y Nowak]

Referencia:

Ohtsuki, H., & Nowak, M. (2009). Prelife catalysts and replicators Proceedings of the Royal Society B: Biological Sciences, 276 (1674), 3783-3790 DOI: 10.1098/rspb.2009.1136

lunes, 28 de septiembre de 2009

Los mensajes subliminales son más efectivos si son negativos.


Los mensajes subliminales son más efectivos cuando el mensaje que se quiere transmitir es negativo, según un artículo publicado por un equipo liderado por David Carmel de la Universidad de Nueva York (EE.UU.) que se publicará en el próximo número de Emotion.

El uso de imágenes subliminales, imágenes que se muestran durante un tiempo tan breve que la persona que las ve no es consciente de ello, ha sido objeto de controversia, particularmente en la publicidad. ¿Funciona esta práctica realmente? ¿Consigue evocar emociones que puedan llevar a un comportamiento determinado? Estudios anteriores apuntan a que la respuesta es afirmativa, sin embargo el diseño de estos estudios ha hecho que las conclusiones fuesen ambiguas.

En el trabajo del equipo de Carmel se dan pruebas de que la gente es capaz de procesar la información emocional proveniente de imágenes subliminales y demuestra de forma concluyente que, incluso en esas condiciones, la información de valor negativo se detecta mejor que la información de valor positivo.

En el estudio se mostraron una serie de palabras en una pantalla de ordenador a cincuenta participantes. Cada palabra aparecía en la pantalla durante una fracción de segundo, en ocasiones dos centésimas de segundo, demasiado rápido como para que los voluntarios pudiesen leerlas de forma consciente. Las palabras eran de una de tres categorías posibles: positivas (alegre, flor, paz), negativas (agonía, desesperación, asesinato) o neutras (caja, oreja, tetera). Después de cada palabra, se les pedía a los participantes que dijesen si la palabra era neutra o “emocional” (positiva o negativa), y qué nivel de seguridad tenían en su decisión.

Los investigadores encontraron que los participantes respondían con mayor precisión en respuesta a palabras negativas, incluso cuando creían que estaban simplemente adivinando la respuesta. Estos resultados muestran que la gente puede percibir el valor emocional de los mensajes subliminales y demuestra que la gente percibe mejor los negativos.

¿Por qué habría evolucionado un mecanismo como este? Porque hay ventajas en responder rápidamente a la información emocional. No podemos esperar a que la consciencia procese la información si alguien corre hacia nosotros con cara de ira o vemos que se encienden los cuatro intermitentes del coche de delante durante la noche en medio de un banco de niebla.

Las aplicaciones e implicaciones de este descubrimiento son evidentes en el mundo de la publicidad, no digamos en la propaganda política. Ahora bien, en vez de proclamar los valores de nuestra marca o candidato, nos dará mejores resultados resaltar las cualidades negativas de la competencia.

Referencia:

Carmel, D., Nasrallah, M., & Lavie, N. (en prensa). “Murder, she wrote: Enhanced sensitivity to negative word valence”. Emotion.

Escribe lo primero que se te ocurra tras ver la imagen que ilustra esta entrada.

domingo, 27 de septiembre de 2009

Einstein y...Georges Lemaître


El astrónomo y sacerdote jesuita Georges Lemaître fue el primero en sugerir que la totalidad del universo comenzó a partir de un solo “átomo primigenio” en algún momento en el tiempo; esta sería la primera versión de lo que ha llegado a ser la teoría actual del Big Bang. Einstein menospreció el modelo de Lemaître, como hizo con todos los modelos en los que el universo se expandía, pero al final tuvo que admitir que Lemaître podía tener razón.

Tras ordenarse sacerdote en 1923, Lemaître continuó sus estudios de astronomía con Arthur Eddington en la Universidad de Cambridge (Reino Unido) para después completarlos con Harlow Shapley en el Observatorio del Harvard College (EE.UU.). Para finalizar su formación académica se inscribió para el doctorado en el Instituto de Tecnología de Massachusets (MIT, por sus siglas en inglés; EE.UU.). Fue aquí donde Lemaître comenzó a pensar acerca de la historia del universo. No estaba, de hecho, familiarizado con las ecuaciones de la relatividad de Einstein: él no creó un modelo de la historia del universo basándose en ideas sobre la forma del universo como habían hecho Willem de Sitter o Alexander Friedmann. En vez de eso, Lemaître se basó en la termodinámica, en concreto en la segunda ley y su concepto de entropía: todo sistema se mueve de un estado de orden a otro de desorden. Otra forma de interpretar la entropía es que toda la energía que se puede usar del sistema se pierde en el transcurso del tiempo, hasta que toda la energía termina desapareciendo. Si esto es cierto para cualquier sistema, también lo es para el universo.

El universo, por tanto, debe haber empezado en un estado de máxima energía, perdiendo energía paulatinamente hasta que finalmente muera. La conclusión lógica de la termodinámica, dijo Lemaître, era un modelo del universo en el que éste se expandiese con el tiempo: un universo que comenzó mucho más pequeño de lo que es ahora, tan pequeño que todo el universo estaba originalmente comprimido en un minúsculo átomo. Nuestro universo estalló a partir de esta increíblemente densa primera partícula y este universo continuaría expandiéndose, perdiendo energía y gradualmente llegando a un alto. Lemaître publicó su teoría de lo que él llamaba el “átomo primigenio” en 1927, nada más volver a Bélgica para enseñar astrofísica en la Universidad de Lovaina.

En esa época, la mayoría de los científicos asumían que el universo siempre había existido tal y como es en la actualidad. Creer en un universo cambiante, es decir, creer en un momento de creación, parecía demasiado cercano a la religión y al misticismo. El mismo Lemaître, a pesar de su formación católica, también pensaba que la ciencia y la fe no deben confundirse entre sí; según él se emplean metodologías diferentes en cada una y, al menos el propio Lemaître, nunca usó una disciplina para confirmar o negar la otra.

En cualquier caso, la familiaridad de Lemaître con la historia del génesis en la Biblia judeo-cristiana y su evidente creencia en un creador influyeron probablemente en la facilidad con la que aceptó una teoría que sugería un universo que había “empezado” en un momento dado. A diferencia de muchos de los contemporáneos de Lemaître, él creía que su teoría del átomo primigenio era una verdadera realidad física, no un simple modelo matemático, como habrían dicho de Sitter y Friedmann de los suyos.

En el momento en que Lemaître publicó sus teorías por primera vez, Einstein ya había dejado bastante claras sus ideas sobre un universo en expansión. Ya había publicado sus críticas a los modelos en expansión de de Sitter y Friedmann, y su respuesta al de Lemaître no fue diferente. Einstein se vio obligado a admitir que las matemáticas parecían funcionar, pero se quejaba de que la física era “abominable”. Al igual que con la mecánica cuántica, las matemáticas no podían desmentir a sus prejuicios, y Einstein despreció la idea de un universo en expansión sin más.

Como decíamos más arriba, a diferencia de de Sitter y Friedmann, Lemaître no creó su modelo sólo con objetivos intelectuales. Creía que se correspondía con la realidad. Basándose en los conocimientos físicos de la época, Lemaître lanzó la hipótesis de que el átomo primigenio estaba formado por elementos radioactivos que comenzaron una reacción en cadena. La energía liberada en esta reacción en cadena habría forzado una expansión inmediata y espectacular del universo; en el proceso también habría creado vida. Lemaître era plenamente consciente de que su versión del origen del universo sería modificada a lo largo del tiempo conforme los principios de la física atómica y nuclear fuesen mejor comprendidos.

No fue hasta los años 60 que la versión moderna de la teoría del Big Bang fue aceptada y, tal y como Lemaître predijo, la teoría de lo que existía en el momento del Big Bang y por qué comenzó a expandirse era muy diferente a sus ideas originales. Lemaître fue, sin embargo, el primer científico en aceptar verdaderamente el concepto de que el universo tuvo un principio.

También Einstein, tuvo que aceptar las ideas de Lemaître. El anuncio en 1929 por parte de Edwin Hubble de que las observaciones efectivamente apuntaban hacia un universo en expansión, convenció finalmente a Einstein de que debía abandonar su noción preconcebida de un universo estático. Unos años después, en 1933, Einstein dio a Lemaître el mérito debido. En una conferencia en el Instituto Tecnológico de California en la que Lemaître describió el universo en expansión, Einstein se levantó a la conclusión, aplaudió y dijo “Esta es la explicación más hermosa y satisfactoria de la creación que haya escuchado jamás”. [En la imagen, Einstein y Lemaître tras esta conferencia].

sábado, 26 de septiembre de 2009

El impacto de un cometa explicaría el origen de las primeras proteínas y por qué los aminoácidos terrestres son de izquierdas.


A la hora de explicar el origen químico de la vida, salvada la aparición de las primeras moléculas, destacan dos dificultades importantes: por un lado cómo se originaron las primeras moléculas complejas, los primeros polímeros que darían lugar a las proteínas, y por otro por qué la vida en la Tierra sólo emplea aminoácidos levógiros. Un equipo del Instituto SETI aporta una posible solución a ambas preguntas: el impacto de un cometa.

Cuando se discute las distintas posibilidades del origen de la vida en la Tierra, tarde o temprano se termina hablando de los aminoácidos. La vida en la Tierra usa 20 de ellos para construir miles y miles de proteínas diferentes que realizan un número proporcional de funciones diferentes en las células, por lo que su importancia es evidente.

En muchos de los experimentos que se hacen para intentar averiguar cuales fueron los primeros pasos de la evolución química, los investigadores se dan por muy satisfechos si en alguno de ellos aparece alguno de estos aminoácidos. Las noticias de su detección en un cometa o en una nube interestelar copan los titulares de los medios de divulgación científica, siempre acompañados por la coletilla “posibilidad de la existencia de vida”

Y, sin embargo, la mera presencia de aminoácidos no es suficiente, es necesario que se unan entre sí y esto, aparentemente tan sencillo, no lo es. El enlace peptídico, el que se produce entre la parte amino de un aminoácido con la ácido de otro para formar las cadenas (péptidos) que terminarán formando proteínas, no es espontáneo a las temperaturas ordinarias, existe una barrera energética, es decir, una cantidad de energía que hay que aportar para que la reacción tenga lugar, es lo que se llama energía de activación. Los químicos emplean para facilitar las reacciones en los laboratorios unas sustancias llamadas catalizadores cuya función es reducir la energía de activación. Los organismos vivos recurren al uso de catalizadores naturales, llamados enzimas. Pero los enzimas son ellos mismos proteínas. ¿Cómo empezó pues la polimerización de los aminoácidos?

Otro misterio es por qué la vida usa aminoácidos levógiros cuando de forma natural existen dextrógiros (giran la luz polarizada a la derecha) y levógiros (giran la luz polarizada a la izquierda). Esto es a lo que nos referimos cuando hablamos de quiralidad.

Una respuesta a ambas preguntas puede que venga del espacio exterior: Jennifer Blank y sus colegas del Instituto SETI (EE.UU.) estudian los cometas y el efecto de sus impactos en la formación de moléculas complejas de una quiralidad determinada.

Una forma de conseguir estas moléculas es hacer los aminoácidos en el espacio y que vengan a la Tierra a bordo de meteoritos y cometas. Hay muchas pruebas de que los meteoritos transportan aminoácidos. Y hace muy poco, se descubrió un aminoácido en el material de un cometa que fue traído por la sonda Stardust de la NASA.

El equipo de Blank quería saber qué les pasaba a estas biomoléculas cuando su “cápsula espacial” cometaria se estrellaba en la Tierra. ¿Por qué un cometa y no un meteorito? Para empezar, porque el impacto de un cometa es menos “agresivo” que el de un meteorito, ya que los meteoritos son menos densos, lo que significa que el impacto genera temperaturas y presiones menores. En segundo lugar, los cometas transportan agua, que es clave para las reacciones químicas que dan lugar a la vida tal y como la conocemos. Cuando el cometa se estrella, su hielo se derrite formando un charco en el lugar del impacto, si éste es terreno seco (en el mar toda los productos se diluyen y no hacemos nada).

Hasta aquí la teoría, ¿cómo se puede confirmar la validez de esta hipótesis a nivel experimental? Para simular un cometa impactando con la Tierra, Blank et. al disparan una bala dentro de un contenedor de metal del tamaño de una lata de conservas. En esta situación, el contenedor es el cometa y la bala la dura tierra. Dentro del contenedor hay una pequeña cámara del tamaño de una moneda, en la que se deposita una muestra líquida de moléculas orgánicas. Tras el impacto y tras asegurarse de que no ha habido filtraciones, la cámara se extrae con mucho cuidado a través de un dispositivo que garantiza que no se contamina.

En 2001 el equipo ya informó en un artículo publicado en Origins of Life and Evolution of Biospheres, para sorpresa de muchos, que los aminoácidos colocados en el simulador cometario estaban todavía intactos tras el impacto. Normalmente, las temperaturas cercanas a los 600 º C dentro del “cometa estrellado” destruirían los aminoácidos. Pero, aparentemente, la temperatura sube y baja tan rápidamente que a las moléculas nos le da tiempo de reaccionar. La altísima presión, 10.000 atmósferas, también puede contribuir a que la descomposición no tenga lugar.

Sin embargo, los aminoácidos hicieron algo más que sobrevivir. También comenzaron a reaccionar entre sí para formar cadenas de hasta 5 aminoácidos de largo. Es concebible que el impacto de un cometa produjese las primeras piezas rudimentarias de las proteínas, los péptidos, y que de esta forma se echase a rodar la bola.

En lo que respecta a la quiralidad, Blank piensa que podría haber una diferencia en cómo se enlazan los aminoácidos en las condiciones del impacto. Los aminoácidos levógiros (de izquierdas) tendrían mayor facilidad para enlazarse a otros levógiros que a un dextrógiro o que los dextrógiros entre sí. Esta preferencia, si existe, explicaría el exceso enantiomérico (hay más de izquierdas que de derechas) en los restos del impacto. Según esta hipótesis en este hecho estribaría la explicación de porqué la vida en la Tierra usa abrumadoramente aminoácidos levógiros. Los trabajos para la confirmación experimental de la hipótesis están en marcha.

Referencia:

Blank, J., Miller, G., Ahrens, M., & Winans, R. (2001). Experimental Shock Chemistry of Aqueous Amino Acid Solutions and the Cometary Delivery of Prebiotic Compounds Origins of Life and Evolution of the Biosphere, 31 (1/2), 15-51 DOI: 10.1023/A:1006758803255

viernes, 25 de septiembre de 2009

La falta de sueño puede favorecer la aparición de Alzheimer.


Un nuevo estudio ha encontrado una conexión entra la falta de sueño y los niveles de beta amiloide, la molécula que juega un papel fundamental en el desarrollo de la enfermedad de Alzheimer. El estudio, liderado por David Holtzman de la Universidad Washington en San Luis (EE.UU.), aparece publicado en Science.

Tanto en humanos como en ratones, los niveles del péptido beta amiloide [en la imagen] aumentan durante las horas de vigilia y disminuyen durante el sueño, según han podido comprobar los investigadores. También han podido constatar que los ratones a los que se privaba de sueño tenían una tendencia mayor a desarrollar placas (depósitos) de beta amiloide, iguales a las que se encuentran en los cerebros de pacientes con Alzheimer. Aunque no está probado de forma concluyente, estos hallazgos sugieren que los trastornos del sueño podrían ser un factor de riesgo para el Alzheimer. Desde un punto de vista más positivo, también apuntan a nuevas formas de tratamiento.

Existen bastantes indicios que sugieren que beta amiloide natural se va acumulando en el cerebro durante muchos años en la gente que termina desarrollando la enfermedad de Alzheimer, comenzando mucho antes de que la persona empiece a mostrar síntomas de pérdida de memoria. Sin embargo, se sabe muy poco de qué factores podrían influir en los niveles de este péptido en el cerebro.

Para conocer más sobre estos factores el equipo de Holtzman llevó a cabo una serie de experimentos con ratones a los que insertaron un pequeño tubo en el cerebro para recoger muestras del fluido que circula por el espacio intercelular. En las muestras tomadas en el hipocampo, una zona del cerebro que es crítica para la memoria y que es una de las primeras en verse afectadas por el Alzheimer, los investigadores encontraron que los niveles de beta amiloide alcanzaban un máximo cuando los animales estaban despiertos y caían cuando estaban dormidos. La misma pauta se encontró en 10 voluntarios humanos que accedieron a que se tomaran muestras de su líquido cerebroespinal.

Los investigadores también comprobaron los efectos de la privación crónica de sueño en ratones que están genéticamente predispuestos a desarrollar placas de beta amiloide. Para mantener a los ratones despiertos, los colocaban en pequeñas plataformas rodeadas de agua, sin espacio para tumbarse a dormir. Los ratones que permanecieron despiertos durante 20 horas al día durante 3 semanas desarrollaron más placas de beta amiloide que los que habían descansado bien.

Por otra parte un fármaco que bloquea los receptores de las hipocretinas A y B, unas hormonas que ayudan a permanecer despierto y que se producen en el hipotálamo, reducía la formación de placas en la misma cepa de ratones.

Estos hallazgos sugieren que las personas que sufren de privación de sueño crónica podrían tener niveles más altos de beta amiloide, lo que las haría más susceptibles de padecer la enfermedad de Alzheimer.

Hemos de recalcar que estos interesantes resultados son muy preliminares y dan sólo otro rayito de esperanza. Pero es muy importante comprender que aún no se pueden sacar conclusiones para los humanos. No se automedique. En caso de duda, consulte con su médico.

Referencia:

Kang, J., Lim, M., Bateman, R., Lee, J., Smyth, L., Cirrito, J., Fujiki, N., Nishino, S., & Holtzman, D. (2009). Amyloid- Dynamics Are Regulated by Orexin and the Sleep-Wake Cycle Science DOI: 10.1126/science.1180962

jueves, 24 de septiembre de 2009

La irreversibilidad de la evolución probada a nivel molecular.


El tiempo siempre va hacia adelante y lo mismo hace la evolución, según un nuevo estudio que muestra que los cambios en una proteína ocurridos en el transcurso de decenas de millones de años impiden la marcha atrás molecular haciendo la evolución irreversible. El trabajo publicado en Nature por un equipo de investigadores dirigido por Joseph Thornton, de la Universidad de Oregon en Eugene (EE.UU.) no sólo muestra cómo la evolución no puede ir para atrás, también proporciona un mecanismo detallado de por qué.

Hace más de un siglo, el paleontólogo Louis Dollo propuso que la evolución no puede desandar sus pasos para recuperar una característica perdida, una idea que no todo el mundo acepta. La llamada ley de Dollo parece evidente a nivel macroscópico: las ballenas y las serpientes no recuperan sus patas, los pájaros no recuperan sus dientes, etc. Pero recientemente, algunos estudios han mostrado que se pueden reactivar genes silenciados y programas de desarrollo durmientes, lo que ha llevado a muchos investigadores a creer que la evolución puede volver sobre sí misma.

El equipo de Thornton decidió comprobar la ley de Dollo a nivel molecular. Se centraron en el receptor de glucocorticoides (GR, por sus siglas en inglés), una proteína que se une a la hormona cortisol para regular la respuesta al estrés entre otras funciones en los vertebrados, incluidos los humanos.

En una investigación anterior, el grupo de Thornton ya había mostrado que la primera proteína GR evolucionó hace unos 440 millones de años a partir de una proteína receptora que se activaba por tres hormonas: cortisol, aldosterona y desoxycorticoesterona. En el transcurso de 40 millones de años, esta proteína precursora [en azul en la imagen] sufrió 37 alteraciones (mutaciones) en sus aminoácidos, para convertirse en la proteína GR moderna [en naranja en la imagen] que sólo es activada por el cortisol.

Los investigadores hallaron que 7 de las mutaciones afectaban específicamente a la unión con el cortisol. A continuación eliminaron estas mutaciones y comprobaron que el receptor no era funcional y no se unía a ninguna hormona. Para determinar si otras mutaciones podrían tener un efecto en la función del receptor, el equipo se concentró en la estructura tridimensional de la proteína e identificó cinco mutaciones adicionales. Estas mutaciones extra no afectan a la especificidad de la unión receptor-cortisol pero impiden que éste funcione adecuadamente. Cuando los investigadores eliminaron estas mutaciones sustituyéndolas por los aminoácidos de la proteína precursora, la GR recuperaba la funcionalidad de ésta y podía unirse a cualquiera de las tres hormonas.

Aunque es técnicamente posible que los cambios moleculares vuelvan atrás, el deshacer las cinco mutaciones extra sin considerar los otros siete cambios tuvo consecuencias negativas o neutras en la funcionalidad de la proteína, por lo que esto no sería favorecido por la evolución. En otras palabras, dado que estas cinco mutaciones sólo permiten el enlace, pero ellas mismas no deciden a qué se une la proteína, no existe presión selectiva para invertir estas mutaciones. Estas mutaciones adicionales pueden seguir mutando, lo que significa para la proteína quemar de forma efectiva el puente por el que acaba de pasar.

Esta demostración de la irreversibilidad a esta escala temporal no es del todo sorprendente. La evolución parece que sigue un curso irreversible desde un punto de vista macro. Desde un punto de vista micro, con escalas temporales de años, sin embargo, sí puede haber reversibilidad, como demostró el grupo de Michael Rose (Universidad de California en Irvine; EE.UU.) cuando consiguió que moscas de la fruta que habían evolucionado diferenciándose durante décadas de selección volviesen a su estado inicial tras sólo dos años de selección inversa.

[Imagen cortesía de Eric Ortlund]

Referencia:

Bridgham, J., Ortlund, E., & Thornton, J. (2009). An epistatic ratchet constrains the direction of glucocorticoid receptor evolution Nature, 461 (7263), 515-519 DOI: 10.1038/nature08249

miércoles, 23 de septiembre de 2009

Estructura familiar y madurez sexual temprana de los adolescentes: ¿cuál es la causa y cuál el efecto?


Post hoc ergo propter hoc (después de esto, por tanto a consecuencia de esto) es el nombre que se le da a una falacia lógica que consiste en suponer que una cosa es la causa de otra simplemente porque una pasó después de la otra. Esto es lo que podría haber pasado con los estudios del efecto de la estructura familiar sobre la madurez reproductiva de los adolescentes. Un estudio publicado en Child Development por un equipo dirigido por Jane Mendle, de la Universidad de Oregón (EE.UU.), asegura que la madurez sexual temprana de los adolescentes tiene una base genética más que ambiental y que, de hecho, el ambiente habitualmente considerado como causa, en concreto el abandono del hogar por parte del padre, es también una consecuencia de esos mismos genes.

Es un hecho estadístico que las chicas que crecen sin sus padres en casa alcanzan la madurez sexual antes que las chicas que viven con ellos. Las estadísticas también nos dicen que desarrollarse pronto tiene consecuencias negativas para estas chicas: es más probable que sufran de depresión, odien sus cuerpos, se vean implicadas en prácticas sexuales de riesgo y se queden embarazadas cuando aún son adolescentes.

Podría ser una simple cuestión de no tener tanta supervisión, en especial los suspicaces ojos de un padre vigilando a su hija. O podría ser una compleja respuesta fisiológica al estrés, en la que las chicas adaptan su estrategia reproductiva a sus circunstancias. Si la vida es dura, dice la teoría, puede que tengan una necesidad evolutiva de reproducirse lo antes posible. No olvidemos que el único objetivo de un ser vivo es que sus genes pasen a la siguiente generación, cuantos más mejor, y que la supervivencia del individuo es sólo un medio para este fin.

El mundo animal sugiere que el efecto de la ausencia del progenitor macho no es exclusivo de los humanos. Los ratones, cerdos, cabras e incluso algunos primates jóvenes reciben señales de sus parientes que inhiben el desarrollo sexual; un macho extraño en el grupo, por el contrario, acelera las cosas. La investigación en humanos ha mostrado que las chicas que crecen con padrastros maduran incluso más rápidamente que las niñas sin padre y que los hermanastros también tienen un efecto medible.

Frente a estos datos que apuntan a una clara influencia ambiental, Mendle et al. sugieren otra causa: los genes. Específicamente, los mismos genes que podrían hacer que un padre tuviese más probabilidad de ser de los que dejan a su familia podrían estar también detrás del desarrollo sexual temprano.

Los investigadores llegaron a esta conclusión tras analizar los datos recogidos a través de la Encuesta Longitudinal de la Juventud de los Estados Unidos (NLSY, por sus siglas en inglés). Se escogieron 1.382 sujetos, chicos y chicas, cada uno de los cuales estaba relacionado al menos con otro sujeto a través de su madre. La mayor parte de las madres eran parejas de hermanas, algunas gemelas idénticas, en este caso los sujetos del estudio eran primos hermanos, o primas hermanas criadas juntas, y en este caso los sujetos del estudio eran primos segundos.

Los cuestionarios de la NLSY preguntan a las madres acerca de una amplia variedad de temas, incluyendo si el padre de sus hijos vive con ellas. Fueron encuestadas cada año desde 1979 a 1994 y desde entonces cada dos años. A los niños se les pasan cuestionarios específicos anuales desde que cumplen los 14 años, que incluyen la pregunta de si han mantenido ya relaciones sexuales.

Lo que los investigadores querían saber era si la edad a la que un adolescente (ambos sexos incluidos) mantenía relaciones sexuales por primera vez era algo habitual en la familia, independientemente de si el padre la había abandonado o no. Para averiguarlo compararon adolescentes que habían crecido sin sus padres con primos cuyos padres seguían en casa. El razonamiento era que si el efecto ambiental de la ausencia paterna era la causa de la madurez temprana de los niños debería ser visible en los datos.

Pero no. De hecho, cuanto más cercano era el parentesco de los primos (por tener madres que eran gemelas, por ejemplo) más próxima era la edad de la primera relación sexual. Esto se comprobaba tanto para varones como para mujeres.

Según los autores la causalidad sería la inversa a la que se ha venido suponiendo: los mismos factores genéticos que influyen en la edad a la que un adolescente tiene su primera relación sexual también afectarían a la probabilidad de que crezcan en un hogar sin sus padres. Podría ser algo tan simple como que los genes causen una pubertad temprana, lo que llevaría a una experimentación sexual temprana, embarazos no deseados y a un compañero que realmente no se ha escogido y con el que no se quiere pasar el resto de la vida. Y estos genes serían los que heredan los hijos, iniciando un nuevo ciclo. Lo que parecía la causa, ahora es el efecto.

Referencia:

Mendle, J., Harden, K., Turkheimer, E., Van Hulle, C., D’Onofrio, B., Brooks-Gunn, J., Rodgers, J., Emery, R., & Lahey, B. (2009). Associations Between Father Absence and Age of First Sexual Intercourse Child Development, 80 (5), 1463-1480 DOI: 10.1111/j.1467-8624.2009.01345.x

martes, 22 de septiembre de 2009

La música cambia nuestra percepción visual del mundo o por qué la música nos emociona.


Mientras escribo estas líneas estoy escuchando unos lieder de Haydn cantados, como es lógico, en alemán. Si bien no entiendo la letra, disfruto mucho de la música, y siendo unas canciones alegres consiguen ponerme de buen humor. Igual nos ha pasado a todos alguna vez con una canción pop, rock o rap (no digamos un aria de ópera) que, aunque no entendamos qué dice la letra, ha conseguido emocionarnos. Y emocionarse es alterar la forma en que percibimos los mismos hechos objetivos. ¿Hasta qué punto influye la música en la forma en que percibimos el mundo? Y ¿de dónde proviene esa influencia? Para responder a la primera pregunta veamos un artículo publicado en Neuroscience Letters por Nidhya Logerwaran y Joydeep Bhattacharya de la Universidad de Londres (Reino Unido), en el que se da cuenta de los resultados de un estudio según el cual la música afecta a cómo se perciben las imágenes, incluso cuando la música ha cesado.

En el experimento, 30 voluntarios escucharon una serie de piezas musicales clasificadas como “alegres” o “tristes”. Tras escuchar la grabación los sujetos veían la fotografía de una cara durante 1 segundo. A algunos se les mostraba una fotografía de una persona “alegre” (la persona estaba sonriendo) y a otros se les enseñaban caras con expresiones tristes o neutras. A los participantes se les pedía que evaluasen el contenido emocional de la cara según una escala del 1 al 7, en la que 1 significaba extremadamente triste y 7 extremadamente alegre.

Los investigadores encontraron que la música influía poderosamente en las evaluaciones emocionales de las caras. La música alegre hacía que las caras alegres pareciesen aún más alegres y la triste aumentaba la tristeza percibida en las tristes. Un efecto similar se encontró con las caras neutras. Este resultado que puede parecer trivial no lo es en absoluto.

En efecto, dos conclusiones importantes se extraen de este estudio. En primer lugar, que las emociones provocadas por la música son “intermodales”, es decir, se contagian fácilmente de un sentido a otro. Esto no es del todo nuevo, ya se sabía que la música puede influir en la percepción de estímulos visuales cuando se presentan simultáneamente, pero este estudio ha sido el primero en demostrar que las emociones evocadas por la música influyen en la percepción del contenido emocional de estímulos visuales que se presentan a posteriori. En segundo lugar, estos resultados vienen a reforzar la idea de que el procesamiento emocional tiene lugar fuera de la consciencia, en vez de estar basado en juicios y decisiones. La música estaría pues relacionada con los automatismos de nuestro cerebro.

Abordemos ahora la segunda cuestión de las que proponíamos al principio. Aunque probablemente parezca obvio que la música provoca emociones, no está claro porqué. ¿Por qué escuchar música es diferente a escuchar hablar a alguien, o a escuchar los sonidos de los animales o a escuchar el camión de la basura? ¿Por qué es agradable escuchar música? ¿Por qué nos influye emocionalmente?

Puede que la respuesta nos la dé nuestro origen evolutivo. La mayor parte de los estímulos evocadores de emociones en la vida de nuestros antepasados habrían sido los provenientes de las caras y los cuerpos de sus congéneres, y si uno encuentra artefactos humanos que poseen un alto poder evocador, es una buena suposición pensar que dichos artefactos deben parecer o sonar humanos de alguna manera. Siendo la música tan evocadora emocionalmente podríamos concluir que la música, a diferencia de otros sonidos, contiene elementos claramente humanos.

La cuestión, por supuesto, es cuáles son esos elementos. Un candidato es nuestro discurso expresivo: quizás la música no sea más que una forma abstracta de lenguaje. Pero esto no parece muy probable, de hecho la mayor parte de la emoción del lenguaje está en el significado, lo que explica que un discurso o el recitado de un poema en una lengua desconocida no despierten emociones en nosotros.

Pero hay un segundo comportamiento expresivo auditivo que los humanos realizan: nuestros propios movimientos corporales. El que los movimientos humanos son la base fundamental de la música es una conjetura que ya hicieron los griegos. El sistema auditivo es capaz de dar sentido a los sonidos de la gente que se mueve a nuestro alrededor: los zapatazos de alguien que camina enfadado, los roces de alguien que se acerca a hurtadillas, un corazón que palpita con tranquilidad o con excitación, etc. Esta capacidad para interpretar los sonidos emocionalmente es un proceso completamente inconsciente, automático.

Algunos de estos movimientos y sus sonidos asociados generan emociones positivas (evocan imágenes de actos agradables), mientras que otros podrían asociarse rápidamente con el miedo y la ansiedad (por ejemplo, el sonido de alguien corriendo o realizando un movimiento acelerado, te hace preguntarte inconcientemente de qué huye o qué le ataca). Según esta idea, si la música sonase como los movimientos expresivos humanos justificaría que fuese tan fácilmente interpretada por nuestro cerebro. En otras palabras, la música habría sido seleccionada culturalmente para sonar, sin que reparemos en ello, como un humano emocionalmente expresivo.

Referencia:

Logeswaran, N., & Bhattacharya, J. (2009). Crossmodal transfer of emotion by music Neuroscience Letters, 455 (2), 129-133 DOI: 10.1016/j.neulet.2009.03.044

lunes, 21 de septiembre de 2009

¿Es el concepto de "célula madre" el nuevo flogisto?


Antes de que se supiese que una materia arde porque se combina con oxígeno, la mayoría de los químicos aceptaban la idea que Becher propuso en 1667, esto es, que la combustión se explicaba como el desprendimiento de una sustancia misteriosa llamada “flogisto”. La teoría del flogisto, hace ya tiempo completamente descartada por errónea, fue sin embargo un gran avance conceptual que ayudó a que los químicos diseñaran experimentos y a que intercambiaran ideas. Sólo cuando se intentó determinar las características físicas precisas del flogisto se hizo evidente que no existía. Ahora un artículo publicado por Arthur Lander, de la Universidad de California en Irvine (EE.UU.), y publicado en el Journal of Biology, arguye que el concepto de célula madre, un gran avance conceptual en biología, se enfrenta a problemas similares a los del flogisto conforme los investigadores intentan determinar sus características moleculares distintivas.

Lander afirma que a ninguna de las dos propiedades que definen popularmente a las “células madre”, potencia y autorrenovación, se les puede adscribir una base molecular exclusiva, y que ambas propiedades pueden observarse en tipos celulares que no se suelen describir como “células madre”. Escribe: “Es curioso que, tras 45 años, seamos incapaces de cimentar la noción de “troncalidad” [de ser célula madre] en una base puramente molecular. Por supuesto, el hecho de que no se haya conseguido un objetivo después de mucho tiempo no quiere decir que éste no esté a la vuelta de la esquina. Pero sí da razones para preguntarse si algo de lo que estamos haciendo no necesitará cambiar, ya sea en la pregunta que nos hacemos o en la forma en que la abordamos”.

Lander argumenta que la “troncalidad” debería ser considerada una propiedad de los sistemas, más que de las células individuales, de tal manera que un sistema con “troncalidad” sería aquel que puede conseguir un tamaño controlado, mantenerse a sí mismo homeostáticamente y regenerarse cuando es necesario. Afirma que estos comportamientos aparecen de forma natural como consecuencia de los principios de los sistemas de control retroalimentados, tan conocidos en ingeniería.

Esto es más que una crítica semántica. Así por ejemplo, una consecuencia práctica de una comprensión inexacta de la naturaleza precisa de las células madre podría ser la asunción de que el establecimiento de las “células madre cancerosas” como dianas quimioterapéuticas detendrá necesariamente la evolución de los tumores. Como Lander escribe: “Si la retroalimentación y la progresión en la estirpe [celular] continúan teniendo lugar en los tejidos cancerosos, podríamos observar que bajo condiciones diferentes (diferentes etapas de la carcinogénesis, diferentes partes del tumor, diferentes cantidades de células tumorales) diferentes tipos de célula asumen el papel de 'células madre cancerosas'”.

Concluye: “Como el flogisto, el término “célula madre” es un concepto científico. De la misma manera que la investigación del concepto del flogisto permitió el descubrimiento del oxígeno y el proceso de la oxidación, puede ser que al rehacer nuestra forma de pensar acerca de las células madre (con las relaciones y la dinámica entre sistemas tomando el lugar de las firmas moleculares y los simples circuitos de regulación de genes) el concepto de troncalidad continuará iluminando el camino hacia la comprensión”.

El texto íntegro es de libre acceso, y está disponible en este enlace. Imagen cortesía de Su Chun Zhang (Universidad de Wisconsin en Madison).

Referencia:

Arthur D Lander (2009). The 'stem cell' concept: is it holding us back? Journal of Biology, 8 (70)

domingo, 20 de septiembre de 2009

Einstein y...Wolfgang Pauli


Wolfgang Pauli fue una de las figuras principales en el desarrollo de la mecánica cuántica y su trabajo le valió el premio Nobel de física en 1945. Veinte años más joven que Einstein, colaboró con él cuando ambos trabajaron en Princeton. Pauli tenía una lengua viperina y, si bien respetaba los primeros trabajos de Einstein sobre la relatividad, se mostró muy desdeñoso con sus últimas ideas.

Nacido en Viena (Austria) el 25 de abril de 1900, Pauli estuvo en contacto con la ciencia desde su más tierna infancia. De ello se encargaron su padre químico, Joseph Pauli, y un íntimo amigo de su padre, el físico Ernst Mach, cuyas ideas tanto influyeron en las primeras teorías de Einstein. En el instituto Pauli estudió la teoría de la relatividad especial de Einstein por su cuenta, a menudo escondiendo artículos en su pupitre que leía cuando las clases se volvían inaguantables. Nada más graduarse en el instituto, Pauli publicaría su primer artículo científico, como no podía ser de otra manera, sobre la relatividad de Einstein.

Pauli estudió física en la Universidad de Munich (Alemania), donde rápidamente su genio fue detectado y alentado por Arnold Sommerfeld. Éste, conociendo de lo que era capaz su alumno de doctorado, le pidió que fuese él quien escribiese el artículo sobre la relatividad para la Encyklopaedie der mathematischen Wissenschaften (Enciclopedia de ciencias matemáticas). Dos meses después de presentar su tesis doctoral sobre la teoría cuántica de la molécula de hidrógeno ionizada, presentó el trabajo sobre la relatividad. Nada más y nada menos que 237 páginas en las que describía el estado actual de la teoría así como sus propias interpretaciones. Este artículo dio a conocer a Pauli en el mundo científico. De hecho, a Sommerfeld le gustó tanto que se lo envió al propio Einstein, que alabó el genio de este joven de 21 años. Ciertamente genial, ya que el artículo de Pauli es reconocido hoy día como el catalizador de la cristalización del pensamiento de los investigadores sobre la relatividad.

Una vez finalizado su doctorado, Pauli pasó un año en la Universidad de Gotinga con Max Born, tras el cual investigó junto a Niels Bohr en Copenhague durante otro año. De vuelta en Alemania y mientras era profesor de la Universidad de Hamburgo, en 1924, Pauli completó la que es probablemente su contribución más famosa a la teoría cuántica: el Principio de Exclusión de Pauli. Básicamente, lo que dice el principio es que dos electrones en la órbita de un mismo átomo no pueden tener exactamente el mismo estado energético. Esta afirmación trajo como consecuencia la asignación de una nueva propiedad a los electrones, a la que él denominó “spin”

Pauli también es conocido por otra contribución a la física que realizó antes de cumplir los treinta años: predijo la existencia de una partícula fundamental completamente nueva, el neutrino. No fue hasta los años sesenta que la existencia del minúsculo neutrino fue probada de forma concluyente, algo que no vería Pauli, pero que él percibió como una realidad basándose solamente en su necesidad matemática.

Un efecto menos científico también lleva el nombre de Pauli. Parece ser que Pauli tenía la facultad de influir en los experimentos, y en los aparatos necesarios para llevarlos a cabo, de la manera más extraña. Las máquinas se rompían por su mera presencia. Sus amigos se referían a esto como “el efecto Pauli” y Pauli parece que se divertía con su reputación.

Pauli tenía fama de ser un perfeccionista. Existen numerosas referencias a él como la “conciencia de la física”, dado el interés que mostraba en ser el Pepito Grillo del trabajo de sus colegas. Es sabido que Pauli era capaz de los comentarios más mordaces y feroces acerca de la forma de hacer ciencia y de las publicaciones de otros científicos. Una de sus citas más famosas sobre un artículo es “No sólo no es correcto, es que ni siquiera es incorrecto”. A Paul Ehrenfest, por ejemplo, le llegó a decir “Creo que me gustas más tú que tus artículos”.

Einstein tampoco escapó del agudo ingenio de Pauli. Si bien ambos hombres mantenían una relación cordial, Pauli se mofaba a menudo de los intereses científicos de Einstein. Pauli era uno de los muchos científicos que estaba de acuerdo con Niels Bohr en lo que se refería a la mecánica cuántica, aceptando la interpretación dada por Bohr conocida como la interpretación de Copenhague. Einstein, sin embargo, se negaba a admitir que la mecánica cuántica estuviese completa. Estaba decidido a encontrar una nueva teoría que incluyese las matemáticas de la nueva física, que Einstein tenía que admitir que hacían un magnífico trabajo previendo los resultados de los experimentos, y que también las mejorase. Einstein se refería a esta deseada teoría como teoría del campo unificado y Pauli se mostraba desdeñoso con este intento de unir las dos bases fundacionales de la física moderna; le gustaba repetir “Lo que Dios ha separado, el hombre nunca lo unirá”.

En 1932, Pauli escribió una revisión bastante cruel del trabajo sobre la teoría unificada de Einstein, diciendo: “La inventiva inasequible al desaliento de Einstein, así como su tenaz energía en la búsqueda de la unificación, nos garantizan en los años recientes, en promedio, una teoría por año...Es psicológicamente interesante que durante algún tiempo la teoría en vigor es usualmente considerada por su autor como la ‘solución definitiva’”.

Tras la anexión de Austria por parte de Alemania, Pauli se mudó a Estados Unidos. Trabajó en Princeton entre 1940 y 1946, donde Einstein también tenía su oficina. A pesar del desprecio de Pauli por la teoría de la unificación de Einstein, estaba claro que ambos hombres se respetaban como colegas. Colaboraron solamente en un artículo, en 1943, sobre la teoría de la relatividad.

En enero de 1945 Einstein mandó un telegrama al comité del premio Nobel en el que decía: “Nomino a Wolfgang Pauli para el premio de física stop sus contribuciones a teoría cuántica moderna consistente en así llamado principio de exclusión o Pauli han llegado a ser parte fundamental física cuántica moderna siendo independiente otros axiomas básicos de esa teoría stop Albert Einstein”. Wolfgang Pauli recibió el premio Nobel en la ceremonia de ese año, con 45 años, por el trabajo que hizo cuando tenía 24.

Nota: Wolfgang Pauli no debe ser confundido con Wolfgang Paul, también ganador del Nobel de física y a quien Pauli se refería como “su parte real” (quien sepa matemáticas que entienda).

Referencia:

Einstein, A., & Pauli, W. (1943). On the Non-Existence of Regular Stationary Solutions of Relativistic Field Equations The Annals of Mathematics, 44 (2) DOI: 10.2307/1968759

sábado, 19 de septiembre de 2009

El agua no es necesaria para explicar el color rojo de Marte.


Experimentos recientes muestran que la arena normal (cuarzo), cuando se la combina con un componente del basalto negro (similar al principal componente del suelo marciano), adquiere un tono rojizo conforme se desintegra en polvo, haya o no agua u oxígeno presentes. Estos resultados, presentados por investigadores del Laboratorio de Simulación de Marte de la Universidad de Aarhus (Dinamarca) liderados por Jonathan Merrison en el Congreso Europeo de Ciencias Planetarias que se está celebrando en Potsdam (Alemania), indican que el polvo rojizo que cubre la superficie de Marte podría haberse formado sin necesidad del agua de las hipótesis al uso.

Si nos basamos en las observaciones orbitales y en la colección de meteoritos marcianos, la superficie de Marte parece estar compuesta principalmente de basalto, una roca volcánica extrusiva de color gris oscuro o negro. Mucha de la superficie marciana esta cubierta con una gruesa capa de óxido de hierro III (Fe2O3, férrico para los clásicos), cuya forma mineral es la hematita.

La presencia de hematita en Marte fue observada cuando su firma espectral fue captada por los espectrómetros de la Mars Global Surveyor y la 2001 Mars Odyssey. El mineral se pudo ver que era abundante en varios lugares de la superficie marciana, uno de ellos Terra Meridiani, cerca del ecuador. Dado que la hematita terrestre es un mineral que se forma típicamente en ambientes acuosos, o por alteraciones debidas al agua, se eligió una región de Terra Meridiani, Meridiani Planum como lugar para el descenso del vehículo robótico Opportunity. El Opportunity confirmó la existencia de hematita, en parte en forma de esférulas. Este hallazgo alentó la hipótesis de que una vez había existido agua líquida en Marte.

Sin embargo, Jonathan Merrison y su equipo, que estudian los fenómenos meteorológicos y su interacción con la superficie marciana, observaron que podían conseguir un finísimo polvo rojo a partir de arena (cuarzo) y magnetita, un mineral de hierro, ferroso-férrico (Fe3O4), presente en el basalto y negro como éste.

Para simular los movimientos de la arena en la superficie de Marte y sus efectos sobre la magnetita, agitaron cuarzo puro (SiO2, principal componente de la arena, muy duro y químicamente bastante inerte) durante siete meses (o lo que es lo mismo 10 millones de ciclos) en unos frascos sellados herméticamente junto con distintas cantidades de magnetita. Al final del experimento, aproximadamente el 10% del contenido se había convertido en polvo, más rojo cuanto mayor el contenido en magnetita inicial.

Un análisis exhaustivo confirmó que el polvo rojo era hematita. Es decir la magnetita se había convertido en hematita sólo por medios mecánicos sin que el agua interviniese en ninguna fase del proceso. Para descartar que el oxígeno del aire pudiese estar contribuyendo al resultado, los experimentos se repitieron con atmósfera de CO2, simulando las condiciones de la atmósfera marciana, con los mismos resultados.

El mecanismo exacto por el que tiene lugar la transformación aún no se ha establecido, pero ahí están los datos. Éstos no descartan la presencia de agua, sólo dicen que no sería necesaria y que puede que hayan sido los vientos y su arrastre de arena, erosionando la magnetita del basalto de la superficie durante miles de años, los que hayan dado a Marte su color.

viernes, 18 de septiembre de 2009

Una función para los aminoácidos de derechas.


Investigadores de la Universidad de Harvard (EE.UU.) y del Centro de Biología Molecular Severo Ochoa (España) encabezados por Hubert Lam han conseguido identificar una función biológica para las versiones dextrógiras de los aminoácidos. Según los resultados publicados hoy en Science, las formas D- de los aminoácidos permiten que las paredes de las células bacterianas se adapten a los cambios en el entorno. Este sería uno de los pocos ejemplos de una función biológica ligada a aminoácidos “de derechas”.

Diecinueve de los veinte aminoácidos (todos menos la glicina) que se encuentran en la naturaleza tienen dos estructuras posibles, llamadas enantiómeros, que son imágenes especulares una de otra [en la imagen los dos enantiómeros de un aminoácido genérico]; una de ellas gira la luz polarizada a la izquierda y se la denomina levógira, L- ó “de izquierdas” y la otra la gira a la derecha y se la llama dextrógira, D- ó “de derechas”. Hasta hace muy poco parecía como si la vida en la Tierra no hubiese encontrado uso para los enantiómeros de derechas, ya que en los organismos vivos sólo se encontraba la variante levógira con funciones asignadas. Durante los últimos 20 años diversos estudios han comenzado a detectar gradualmente funciones importantes para los D-aminoácidos como, por ejemplo, componentes clave en antibióticos, fármacos inmunodepresores o agentes antitumorales y como neurotransmisores en el cerebro.

Como ocurre con muchos descubrimientos interesantísimos, el equipo de Hubert Lam estaba investigando otro asunto cuando se produjo el hallazgo. En concreto el grupo estaba intentando delimitar el efecto que sobre la virulencia del cólera tiene la forma de la bacteria que lo produce, Vibrio cholerae. Los investigadores estaban trabajando con células en las que se habían mutado las proteínas que controlan la forma celular. Los investigadores se dieron cuenta que los enantiómeros dextrógiros, no así los levógiros, de cuatro aminoácidos eran los que estimulaban la transición de la forma bacteriana de barra a esfera.

Conforme las células mutadas de V. cholerae pasaban de un crecimiento exponencial cuando eran barras a un estado estacionario cuando eran esferas, los investigadores pudieron comprobar que los L-aminoácidos se convertían en D-aminoácidos por la acción de unas enzimas llamadas racemasas, que tienen el efecto de alterar la estructura de la molécula alrededor del carbono asimétrico.

Para determinar en qué parte de la pared celular estaba actuando esta repentina acumulación de D-aminoácidos, los investigadores compararon células normales con otras mutadas en las que no se expresaban las racemasas (y no tenían por tanto una cantidad significativa de D-aminoácidos). Encontraron que en estas células un polímero elástico, la mureína (peptidoglicano), componente estructural principal de las paredes bacterianas, era más grueso pero más débil estructuralmente, prueba de que los D-aminoácidos tienen la capacidad de alterar la composición, cantidad y fuerza de la mureína.

El grupo comprobó entonces si estos resultados eran extrapolables a otras bacterias. Para ello eligieron la Bacillus subtilis, uno de los microorganismos modelo más estudiados, muy alejado evolutivamente de V. cholerae. Por otra parte B. subtilis es Gram positivo, por lo que tiene una red de mureína muy desarrollada. Como en el caso de V. cholerae, los D-aminoácidos en B. subtilis influyen en la síntesis de peptidoglicano y regulan la estructura de la pared celular.

A la vista de los resultados, los autores lanzan la hipótesis de que las moléculas de derechas serían capaces de disminuir la actividad metabólica de cualquier célula bacteriana cuando los recursos se vuelven escasos o las condiciones ambientales adversas.

Referencia:

Lam, H., Oh, D., Cava, F., Takacs, C., Clardy, J., de Pedro, M., & Waldor, M. (2009). D-Amino Acids Govern Stationary Phase Cell Wall Remodeling in Bacteria Science, 325 (5947), 1552-1555 DOI: 10.1126/science.1178123

jueves, 17 de septiembre de 2009

La revolución optogenética: del comportamiento a la neurona que lo gobierna.


Hay una nueva forma de explorar los secretos de la biología. Un equipo de investigadores liderados por Ehud Y. Isacoff, de la Universidad de California en Berkeley, ha conseguido mediante el uso de proteínas activadas por la luz y técnicas de expresión genética que un pez cebra inicie un movimiento lateral de su cola cuando una neurona concreta recibe, no una descarga eléctrica o una dosis de neurotransmisores, sino un simple destello de luz. Este espectacular resultado doble, la detección de la neurona concreta y la técnica empleada, se publica hoy en Nature.

Nos atrevemos a decir que habrá un antes y un después de este hallazgo. Desde el ratón Brainbow esto es lo más excitante y lleno de posibilidades que hemos visto. A poco que se confirmen las expectativas aquí huele a Nobel. Pero vamos por partes.

Ya mencionábamos ayer que los científicos determinan las funciones de las neuronas vía correlación. Si un grupo de neuronas se activa cada vez que un animal realiza un cierto comportamiento, entonces lo más probable es que esas neuronas controlen ese comportamiento. Lo mismo ocurre si el funcionamiento de las neuronas se ve interrumpido: si el comportamiento cesa, entonces es probable que las neuronas afectadas por la interrupción sean las que lo controlan.

Pero era necesario ir más allá de la correlación y comprobar de verdad la causalidad. Ir del comportamiento al sistema nervioso y allí determinar las neuronas individuales directamente responsables. Y esto, que parecía poco menos que imposible, es lo que ha conseguido el equipo de Isacoff.

La clave del éxito de los científicos está en una proteína artificial activada por la luz (PAL) que desarrollaron hace unos años. Se puede conseguir mediante ingeniería genética que la PAL se exprese en una neurona (o en cualquier otro tipo de célula) y que funcione como un interruptor óptico. Ilumina la PAL con luz de un color y la neurona se activa, ilumina la PAL con luz de otro color y la neurona se desactiva. Este tipo de método se llama optogenético, por la combinación de óptica y genética.

Para comprobar el funcionamiento de la PAL, Isacoff y sus colegas la usaron para buscar la célula exacta que regula el circuito neuronal que media en los movimientos natatorios de la larva del pez cebra.

En primer lugar, expresaron la PAL al azar en el genoma de cientos de larvas de pez cebra. Algunas PAL aparecieron en células musculares, otras en células óseas y otras en el sistema nervioso central. Seleccionaron entonces los ejemplares en los que la PAL aparecía en las neuronas de la médula espinal, algunas de las cuales se sabe que controlan la locomoción.

Al iluminar estos peces, un puñado de ellos empezaron a mover sus colas de lado a lado. Un análisis posterior, en el que se fueron descartando distintas candidatas, llevó a los investigadores a la fuente neuronal de este comportamiento: todos los nadadores tenían la PAL expresada en una célula llamada neurona de Kolmer-Agduhr, cuya existencia se conocía desde hace 75 años pero cuya función era un misterio.

Lo que el equipo de Isacoff ha mostrado en la locomoción se puede hacer para cualquier otro tipo de comportamiento; esto constituye una nueva forma de hacer neurociencia. Pero las aplicaciones no se constriñen a la investigación del sistema nervioso, también tiene aplicaciones evidentes en la biología de síntesis, como herramienta para identificar redes proteínicas útiles para su posterior importación a otro microorganismo y crear de esta manera aplicaciones microbiológicas ad-hoc, ya sea para la eliminación de toxinas, la generación de energía o biomasa, o el tratamiento de enfermedades.

[En la imagen, larva de pez cebra usando la técnica brainbow]

Referencia:

Wyart, C., Bene, F., Warp, E., Scott, E., Trauner, D., Baier, H., & Isacoff, E. (2009). Optogenetic dissection of a behavioural module in the vertebrate spinal cord Nature, 461 (7262), 407-410 DOI: 10.1038/nature08323

miércoles, 16 de septiembre de 2009

Confirmado el mecanismo por el que el sueño consolida el aprendizaje.


Durante más de un siglo se ha sabido que el sueño es importante de alguna manera para el aprendizaje y la memoria. Sigmund Freud sospechaba que lo que se había aprendido durante el día era “repasado” por el cerebro durante el sueño, permitiendo que se formasen los recuerdos. Y, aunque mucha de la investigación reciente se ha concentrado en la conexión entre el hipocampo y la consolidación de la memoria, no se había identificado qué procesos específicos hacen que se formen los recuerdos a largo plazo. Ahora, un equipo de investigadores, trabajando en el Collége de France (Francia), encabezados por Gabrielle Girardeau y que incluía a György Buzsáki (Universidad de Rutgers; EE.UU.), describen en un artículo aparecido en Nature Neuroscience [1] precisamente eso, el mecanismo que tiene lugar durante el sueño que hace que tengan lugar el aprendizaje y la formación de recuerdos.

El equipo de investigadores ha conseguido demostrar que durante las oleadas de ondas agudas en el hipocampo, los recuerdos almacenados en éste de forma provisional son transferidos al neocórtex, donde se almacenan los recuerdos a largo plazo.

Durante el sueño, el electroencefalograma (EEG) del hipocampo muestra un patrón de ondas lentas irregulares. Este patrón se ve interrumpido de vez en cuando por fuertes incrementos de actividad en forma de ondas agudas. Estas ondas agudas aparecen asociadas a oscilaciones del EEG de corta duración y alta frecuencia llamadas oleadas. Estas oleadas de ondas agudas aparecen más frecuentemente, de cientos a miles de veces, en la etapa 4 del sueño, que junto a la 3 constituyen lo que conocemos como sueño profundo.

Se había propuesto que estas ondas agudas son, de hecho, reactivaciones de las pautas de actividad neuronal que se habían memorizado mientras se estaba despierto realizando actividades, provocadas dichas reactivaciones por el reforzamiento de las conexiones sinápticas en el hipocampo. Esta idea es un componente clave en la teoría de la memoria de dos etapas, propuesta por Buzsáki (uno de los autores del estudio que nos ocupa) hace 20 años [2], según la cual los recuerdos se almacenan en el hipocampo durante el comportamiento, y son luego transferidos al neocórtex durante el sueño: las ondas agudas producirían cambios sinápticos hebbianos en las dianas neocorticales de los haces de salida del hipocampo.

Los investigadores han sido capaces de demostrar el papel de las oleadas de ondas agudas en la formación de recuerdos eliminando estas oleadas en el sueño de ratas. Se entrenó a las ratas en una tarea de navegación espacial, que implica al hipocampo, y después de cada sesión se las dejó dormir. Aquellas ratas en las que se eliminaba las oleadas de ondas agudas mediante estimulación eléctrica no mostraban haber aprendido del entrenamiento, ya que la información almacenada temporalmente en el hipocampo no podía ser enviada al neocórtex.

Este es el primer ejemplo en el que la eliminación selectiva y sin fallos de un patrón de actividad del cerebro provoca un déficit de memoria, una demostración de que este patrón específico es el que provoca la formación de los recuerdos a largo plazo. Esto constituye un enfoque de la investigación en neurociencia diferente al habitual en los últimos tiempos, en los que se intenta correlacionar un comportamiento con señales cerebrales específicas registradas por diferentes técnicas (EEG, resonancia magnética funcional, etc.), correlaciones de las que es muy difícil extraer causalidad.

La identificación de un patrón cerebral específico responsable del reforzamiento de la información aprendida podría facilitar la investigación en tratamientos más efectivos para las enfermedades que conllevan pérdidas de memoria.

Referencias:

[1]

Girardeau, G., Benchenane, K., Wiener, S., Buzsáki, G., & Zugaro, M. (2009). Selective suppression of hippocampal ripples impairs spatial memory Nature Neuroscience DOI: 10.1038/nn.2384

[2]

BUZSAKI, G. (1989). Two-stage model of memory trace formation: A role for “noisy” brain states Neuroscience, 31 (3), 551-570 DOI: 10.1016/0306-4522(89)90423-5

martes, 15 de septiembre de 2009

Pruebas de metacognición consciente en animales no humanos.


En una revisión publicada en Trends in Cognitive Sciences, J. David Smith, de la Universidad del Estado de Nueva York en Buffalo, afirma que cada vez hay más pruebas de que algunas especies animales presentan metacognición consciente, es decir, pueden, al igual que los humanos, monitorizar, regular y reflexionar sobre sus estados mentales. Entre estas especies estarían los delfines y los macacos [en la imagen].

Smith repasa los experimentos llevados a cabo con delfines, palomas, ratas, monos y primates usando modelos de percepción, memoria u ocultación de comida, para llegar a afirmar que cada vez existen más pruebas de la existencia de formas de pensamiento paralelas a la consciencia y a la autoconciencia cognitiva humanas, si bien no se ha confirmado aún la existencia de un paralelo experiencial completo.

La metacognición, también llamada teoría de la mente, es una capacidad humana compleja ligada a varios aspectos psicológicos. Por una parte a la estructura jerárquica de la mente, dado que los procesos de control ejecutivo metacognitivos supervisan la cognición de menor nivel. La metacognición también está unida a la consciencia de sí mismo, la incertidumbre y la duda, por ejemplo, son estados personales y subjetivos. Y, por último, a la consciencia declarativa, ya que los humanos son conscientes de sus estados de conocimiento y pueden “declararlos” a los demás.

En los aspectos biológicos existe una continuidad entre las distintas especies, incluida la humana. Si se considera a la psicología como una rama de la biología, como lo hace la psicología evolutiva, se entiende que sea un objetivo fundamental de la psicología comparada establecer firmemente si los animales no humanos comparten la capacidad metacognitiva humana. Si esto es así, esta capacidad podría estar apoyada en su consciencia y la consciencia de sí mismos. En esta búsqueda de continuidades o discontinuidades, la metacognición se une al estudio del uso de herramientas o del lenguaje.

En su revisión del estado de la cuestión, Smith se detiene en algunos estudios sobresalientes, como el del delfín Natua. Cuando no estaba seguro, el delfín dudaba claramente y titubeaba entre las opciones ofrecidas (recordemos que la incertidumbre es un estado personal y subjetivo); cuando, por el contrario, estaba seguro nadaba hacia la respuesta elegida a toda velocidad.

En abierto contraste con el comportamiento de los delfines, las palomas de varios estudios no han expresado ninguna capacidad para la metacognición. Asimismo los monos capuchinos, en varios estudios, tampoco expresan muchos atisbos de metacognición.

Este último resultado invita a una reflexión y suscita muchas preguntas importantes sobre la emergencia filogenética de la mente reflexiva en el orden primates.

Referencia:

Smith, J. (2009). The study of animal metacognition Trends in Cognitive Sciences, 13 (9), 389-396 DOI: 10.1016/j.tics.2009.06.009