miércoles, 30 de junio de 2010

Cómo abaratar el sagrado pneuma de Delfos.


En el año 67 de la era común, el emperador Nerón, que acababa de cumplir los 30 años y hacía 8 que había matado a su madre, visitó el Oráculo de Delfos buscando el consejo de Apolo. La Pitia habló: “Tu presencia aquí enfurece al dios al que buscas. ¡Retrocede, matricida! El número 73 marca la hora de tu caída”. Nerón enfurecido ordenó que enterrasen a la Pitia viva. Una revuelta de Galba, a la sazón de 73 años, acabaría con Nerón al año siguiente.

La Pitia, la pitonisa (profetisa) del Oráculo de Delfos era, muy probablemente, la mujer más poderosa de la antigüedad. La influencia de sus profecías afectó al mundo antiguo durante 800 años. Este podría ser el primer impacto en la historia de la humanidad del etileno.

El etileno tiene un olor dulzón y una pequeña inhalación puede provocar trances y estados eufóricos. Sus efectos también incluyen el alivio del dolor y la pérdida de las inhibiciones. En la gruta en la que se encerraba la Pitia para recibir la sagrada pneuma, lo que respiraba era, más que posiblemente, etileno, lo que explicaría la osadía que le costó la vida.

El etileno se usa masivamente en la industria química, siendo el compuesto orgánico más producido del mundo (más de 100 millones de toneladas) y su demanda sigue aumentando. Sin embargo todavía se produce por craqueo de los gases del petróleo: un proceso a alta temperatura, intensivo en energía y recursos que se desarrolló en el siglo XIX.

La búsqueda de nuevos enfoques más eficientes y menos caros a la producción del etileno ha sido frenética en las últimas tres décadas y, aunque algo se ha progresado, ninguna técnica ha demostrado ser viable comercialmente.

Ahora una empresa de Silicon Valley anuncia una nueva técnica basada en nanotecnología: combina la virología con la biología molecular para obtener un resultado químico industrial. El proceso para producir el etileno depende de la capacidad que tiene un virus modificado genéticamente para recubrirse con un compuesto metálico que es el que sirve de catalizador de la reacción que produce el etileno a partir de metano.

La clave está en que este virus bacteriófago puede crear una maraña de nanofilamentos recubiertos de catalizador, los investigadores la llaman “bola de pelo”, que tiene tanta superficie de contacto que el rendimiento de la reacción se dispara, a la par que se reduce significativamente la demanda de energía, reduciendo la temperatura necesaria para que tenga lugar la reacción entre 200 y 300 ºC.

La reacción química, conocida como conversión oxidativa del metano (COM), fue un área de intensa investigación a comienzos de los años 80, y no puede ser más engañosamente simple:

2CH4 + O2 → C2H4 + 2H2O

El material exacto empleado no ha sido dado a conocer por la empresa que ha hecho el desarrollo, aunque parece ser que es similar al óxido de magnesio. La investigación biológica de base se ha realizado en el Instituto de Tecnología de Massachussets (M.I.T., por sus siglas en inglés) y por aquí podemos obtener una idea de los fundamentos del proceso.

El año pasado el grupo de materiales biomoleculares que dirige Angela Belcher publicó en Science un artículo en el que describía la manipulación genética de un virus (M13) que le dotaba de péptidos que tenían afinidad por los nanotubos de carbono de pared sencilla y, por otra parte, de otros péptidos que permitían la nucleación de fosfato de hierro amorfo (a-FePO4) en el recubrimiento principal del virus [en la imagen]. De esta forma los investigadores pudieron recubrir y después bobinar el cátodo de una batería de ion litio. El catalizador de la COM debe haberse formado de forma similar.

La empresa ha anunciado la próxima comercialización del bacteriófago catalizador que abaratará la fabricación de la sagrada pneuma de Delfos. Cuando lo haga daremos su nombre.

Referencia:

Lee, Y., Yi, H., Kim, W., Kang, K., Yun, D., Strano, M., Ceder, G., & Belcher, A. (2009). Fabricating Genetically Engineered High-Power Lithium Ion Batteries Using Multiple Virus Genes Science DOI: 10.1126/science.1171541

martes, 29 de junio de 2010

Frenología 2.0


La frenología fue extremadamente popular en el siglo XIX. Esta pseudociencia afirmaba que se podía conocer el carácter de una persona por la forma de su cráneo, incluyendo sus impulsos criminales. Hoy día está completamente descartado que tenga alguna base científica. Sin embargo, contribuyó al desarrollo de la ciencia al difundir la idea de que el cerebro es el órgano de la mente, y de que ciertos áreas albergan funciones específicamente localizadas.

En la actualidad estamos habituados a leer noticias sobre investigaciones que ligan una determinada función mental con un determinado área del cerebro. Pero, ¿podría encontrarse una correlación entre los rasgos de la personalidad y el desarrollo relativo de distintas áreas del cerebro? Un estudio dirigido por Jeremy Gray, de la Universidad de Yale (EE.UU.), y publicado en Psychological Science, afirma haberlas encontrado para 4 de los 5 grandes rasgos de la personalidad.

Según el modelo de los cinco grandes, la personalidad de una persona puede describirse según cinco factores: factor O (Openness o abertura a nuevas experiencias, algunas veces se denomina Intelecto), factor C (Conscientiousness o Responsabilidad), factor E (Extraversion o Extroversión), factor A (Agreeableness o Amabilidad) y factor N (Neuroticism o Neuroticismo). En función de este modelo los investigadores generaron hipótesis acerca de qué regiones cerebrales deberían tener más volumen en función de cada rasgo presente en un individuo dado.

Realizaron escáneres por resonancia magnética a 116 individuos que también realizaron un test de personalidad. Tras controlar los efectos de la edad, el sexo y el volumen global del cerebro, los investigadores comprobaron que sus hipótesis se veían confirmadas en cuatro de los cinco rasgos: todos excepto el Intelecto.

Así la Extroversión se correlaciona con el volumen del córtex orbitofrontal medial, una región del cerebro que participa en el procesamiento de las recompensas. El Neuroticismo lo hace a su vez con el desarrollo de las regiones cerebrales que se asocian con la amenaza, el castigo y los afectos negativos. La Amabilidad covaría con el volumen de las regiones que procesan la información acerca de las intenciones y los estados mentales de otros individuos. Finalmente, la Responsabilidad se correlaciona con el córtex prefrontal lateral, un área implicada en la planificación y el control voluntario del comportamiento.

Hemos de recalcar que este estudio sólo ha establecido correlaciones. No dice si un factor es responsable del volumen, o si la estructura del cerebro es responsable de la personalidad, o si existe o no existe relación de causalidad alguna. El cerebro tampoco es un ente estático, cambia, como puede cambiar la personalidad. Pero lo que sí permitiría es establecer bases de datos para encontrar patrones estadísticos con los que definir la personalidad probable de una persona en un momento dado en función de la forma de su cerebro. Los autores lo llaman neurociencia de la personalidad, ¿por qué no frenología 2.0?

Referencia:

DeYoung CG, Hirsh JB, Shane MS, Papademetris X, Rajeevan N, & Gray JR (2010). Testing predictions from personality neuroscience: brain structure and the big five. Psychological science : a journal of the American Psychological Society / APS, 21 (6), 820-8 PMID: 20435951

lunes, 28 de junio de 2010

Una nueva teoría del envejecimiento: los retrovirus integrados en el genoma como reloj endógeno.


Mientras que la mayoría de las teorías del envejecimiento hacen hincapié en los efectos del estrés, la radiación, la oxidación o la ingesta calórica como los factores principales que controlan la duración de la vida debido a que dañan el ADN, una nueva teoría afirma que el factor determinante viene incorporado al ADN desde el origen. Los autores de la Universidad George Washington (EE.UU.) publican en Mechanisms of Ageing and Development que los posibles responsables de marcar nuestro fin son retrovirus arcaicos (muy parecidos al HIV) presentes en el ADN.

La edad avanzada sigue siendo el principal factor de riesgo para muchas enfermedades graves: cardiovasculares, derrames cerebrales y cáncer. Los mecanismos por los que la edad avanzada predispone a la enfermedad están comenzando a comprenderse debido, en parte, a las manipulaciones ambientales y genéticas de organismos modelo.

Las datos sugieren que el daño al ADN podría ser la parte final común a varios de los mecanismos de envejecimiento propuestos. Esta nueva teoría supone que hay un mecanismo adicional que implica la existencia de una inestabilidad genética inherente al propio ADN.

Los LINE (Long Interspersed Nuclear Elements, elementos nucleares dispersos largos), constituyen el 20% del genoma humano. Son, ahora lo explicamos, retrotransposones no-LTR (Long Terminal Repeat). Un retrotransposón es un transposón, una secuencia de ADN que puede moverse autosuficientemente a diferentes partes del genoma de la célula, que emplea ARN como intermediario en este desplazamiento. Los LTR son secuencias de nucleótidos que se encuentran en los extremos de elementos retrovirales que están integrados en el genoma de la célula. Por tanto, un LINE es una secuencia de ADN que se puede mover a distintos sitios del genoma pero que no es parte de los extremos de un retrovirus integrado en el genoma.

Pues bien, la familia de mayor importancia cuantitativa es LINE-1 o L1 que es una secuencia de 6 kilobases repetida unas 800.000 veces de modo disperso por todo el genoma. Dos de los productos de L1 son las proteínas ORF1p y ORF2p. Un ORF (Open Reading Frame), un marco abierto de lectura, en la imagen, es cada una de las secuencias de ADN comprendida entre un codón de inicio(Start) de la traducción y un codón de terminación (Stop). Estas proteínas son capaces de unirse al ARN y tienen una actividad que permite la retrotransposición. Aunque son principalmente activas sólo durante la embriogénesis, estas transcripciones de L1 se detectan en las células somáticas adultas en ciertas condiciones.

Lo que los autores plantean es que estos productos de la L1 funcionarían como un “reloj endógeno”, erosionando lentamente la integridad del genoma compitiendo con el mecanismo que vuelve a unir las dos hebras del ADN después de la copia. Así, si bien las transcripciones de la L1 son un mecanismo aceptado de variación genética (un motor de la evolución), se propone que la longevidad se ve negativamente afectada por la actividad somática de la propia L1. Es decir, el mecanismo que ha permitido evolucionar a los humanos sería el mismo que nos hace envejecer.

Referencia:

St. Laurent III, G., Hammell, N., & McCaffrey, T. (2010). A LINE-1 component to human aging: Do LINE elements exact a longevity cost for evolutionary advantage? Mechanisms of Ageing and Development, 131 (5), 299-305 DOI: 10.1016/j.mad.2010.03.008

domingo, 27 de junio de 2010

Einstein y...el efecto fotoeléctrico.


El trabajo de Einstein sobre el efecto fotoeléctrico fue tan revolucionario como el de la relatividad, constituyendo una de las teorías que dieron un impulso definitivo a la creación de la mecánica cuántica. No tan llamativa como la teoría de la relatividad, fue el logro por el que mereció oficialmente el premio Nobel en 1921.

Cuando la luz incide sobre una placa de metal es capaz de arrancar electrones, provocando una corriente eléctrica, en esto consiste el efecto fotoeléctrico. Pero a principios del siglo XX, la teoría vigente de cómo la luz se movía no encajaba con lo que sucedía cuando se realizaba un experimento fotoeléctrico. En 1905, el “annus mirabilis” de Einstein, éste publicó un artículo en el que ofrecía una solución que se basaba en la hipótesis de que la luz está formada por partículas discretas. Esta era una idea radical, pero que hoy se acepta completamente.

Heinrich Hertz fue el primero que se dio cuenta de la existencia del efecto fotoeléctrico en 1887, cuando bloqueó toda la luz que no necesitaba para un experimento eléctrico que estaba realizando. Hertz descubrió que las chispas eléctricas creadas por el aparato eran más débiles sin la luz adicional; por tanto, la luz misma que incidía en la placa de metal estaba induciendo electricidad. A finales del siglo XIX se tenía asumido que esta electricidad estaba específicamente constituida por los electrones que se habían arrancado de los átomos por la energía aportada por la luz incidente.

En 1902, el físico alemán Philipp Lénárd identificó algunos problemas con la idea de Hertz. Lénárd creía, al igual que sus contemporáneos, que la luz era una onda. Consecuentemente, podrían esperarse algunos resultados: más cantidad de luz aportaría más cantidad de energía a los electrones; una luz débil necesitaría un tiempo para transmitir suficiente energía a los electrones del metal como para arrancar algunos; y las dos afirmaciones anteriores serían independientes de la frecuencia de la luz incidente. Lénárd descubrió que no pasaba nada de todo esto. Cuando hizo que rayos de luz cada vez más intensos incidiesen sobre el metal, la cantidad de electrones arrancados aumentaba pero siempre parecían tener la misma cantidad de energía. Además, los electrones comenzaban a escaparse en el momento en que la luz alcanzaba la placa, a no ser que la luz fuese de baja frecuencia, en cuyo caso no pasaba nada de nada. Lénárd hizo que estos problemas, con todo lujo de detalles y datos experimentales, fuesen conocidos públicamente (y ganó un premio Nobel por ello), pero no fue él el llamado a resolver el misterio.

Por otro lado Max Planck también estaba trabajando con la radiación. Para resolver un conjunto de problemas completamente diferente, lanzó la hipótesis de que, quizás, la energía estuviese constituida por paquetes de tamaños específicos. En vez de un flujo continuo, la radiación estaría formada por “cuantos” de energía. En otras palabras, la radiación en vez de ser como un chorro de agua sería como una serie continua de pelotas de pingpong. Al introducir esta idea, Planck consiguió que las matemáticas del trabajo que estaba realizando cuadrasen. Esto no quiere decir que Planck creyese necesariamente que la energía viniese realmente en paquetes discretos, al menos al principio pensó que esto no era más que un truco matemático que le había permitido salir de un atolladero.

Einstein por su parte estaba dispuesto a aceptar que este truco matemático podría representar la realidad física. El 17 de marzo de 1905 publicó un artículo en el que partía de la hipótesis de que la luz no era una onda, sino que estaba constituida por partículas no demasiado diferentes a los propios electrones. Si se adoptaba este salto conceptual todo parecía tener sentido. En vez de que el rayo de luz añadiese energía continuamente a los electrones de la placa metálica, ahora había que interpretar el efecto fotoeléctrico como si cada fotón (el nombre que le daría en 1926 Gilbert Lewis al cuanto de luz) pudiese afectar solamente a un electrón cada vez. Esto explicaba los tres problemas fundamentales que planteaba el efecto fotoeléctrico.

El primer problema era que la incidencia de luz con mayor energía no correspondía a la expulsión de átomos con más energía. Con la solución de Einstein, se puede apreciar que cambiar la intensidad de la luz simplemente significa que hay más fotones. Más fotones significa que hay más electrones expulsados del metal, pero ello no implica que un electrón en concreto tenga más energía.

El segundo problema era que las ondas de baja intensidad no necesitaban más tiempo para arrancar los electrones del metal, sino que lo hacían inmediatamente. Esto podía interpretarse como que había menos fotones en el rayo de luz incidente. Si bien menor número de fotones significa menor número de electrones, un fotón individual no va a tener problemas expulsando a un electrón en el momento en que golpee la placa metálica. No hay necesidad de que múltiples ondas de energía se acumulen a lo largo del tiempo dándole finalmente al electrón energía suficiente para liberarse.

El tercer problema era que, en el marco de la teoría ondulatoria de la luz, uno no esperaría que un cambio en la frecuencia afectase al resultado, pero sí lo hacía. La explicación está en el hecho de que la cantidad de energía de cada fotón individual es directamente proporcional a su frecuencia. Por debajo de cierta frecuencia, un fotón simplemente no tiene energía suficiente como para arrancar un electrón, no importa el número de fotones que se estrelle contra la placa de metal (recordemos que el electrón no acumula la energía).

La teoría de Einstein no sólo proporcionaba explicaciones a los problemas planteados por el efecto fotoeléctrico; también daba formas de ser comprobada experimentalmente. Su teoría implicaba que había una correlación entre la frecuencia de la luz y la energía dada a los electrones. Esta correlación era algo que podía medirse.

A pesar del hecho de que la correlación era verificable y que la hipótesis de Einstein explicaba satisfactoriamente el efecto fotoeléctrico, llevó bastante tiempo a la comunidad científica aceptar que no era sólo un truco matemático. Incluso Einstein necesitó varios años hasta que se comprometió con la idea de que la luz era realmente un haz de partículas. Robert Millikan, una década más tarde, llevó a cabo experimentos con objeto de probar que la teoría era falsa y, a pesar de que los resultados apoyaban continuamente la hipótesis de los cuantos, Millikan siguió durante años negándose a creer que no existiese una explicación alternativa.

Para los años 20 del siglo pasado, se aceptaba (casi) universalmente que la luz estaba constituida por cuantos, a pesar de que también pareciera comportarse como una onda. Esta dualidad onda-corpúsculo fundamental se convirtió en uno de los pilares de la teoría cuántica, algo que ocupó mucho más la cabeza de Einstein que la propia teoría de la relatividad en los siguientes 30 años.

Referencia:


Einstein, A. (2005). Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt [AdP 17, 132 (1905)] Annalen der Physik, 14 (S1), 164-181 DOI: 10.1002/andp.200590004

viernes, 25 de junio de 2010

El origen de las burbujas asesinas.


Mientras lees este artículo, minúsculas burbujas de nitrógeno van y vienen por tus tejidos. Esto no es un problema a no ser que te sometas a cambios bruscos de presión en tu entorno, como los que sufren los submarinistas o los astronautas. Durante las caídas de presión grandes y rápidas estas burbujas pueden crecer y llevar a una embolia gaseosa y, en algunos casos, a la muerte.

Para poder protegerse de este síndrome y para tratarlo es necesario disponer de un modelo fisiológico del comportamiento de estas burbujas. Solamente hay un problema: estas burbujas no deberían existir. Si su composición es mayoritariamente nitrógeno y el aire de la atmósfera circundante está compuesto por nitrógeno y oxígeno, la presión de la burbuja debería ser menor que la del aire y deberían colapsar. Pero no lo hacen.

Una posible explicación a este misterio ha aparecido publicada en el Journal of Chemical Physics por parte de Saul Goldman, de la Universidad de Guelph (Canadá).

Si, como se cree, la embolia gaseosa es el resultado del crecimiento de burbujas de gas preexistentes en los tejidos, esas burbujas deberían ser lo suficientemente estables como para tener una vida media no despreciable. El modelo que propone Goldman describe los tejidos como materiales blandos y elásticos que tienen un cierto grado de rigidez. Los modelos existentes hasta la fecha se han centrado en la formación de burbujas en líquidos, que no tienen ninguna rigidez.

Usando este modelo de tejido, Goldman encuentra que existen bolsas de presión reducida (de hecho, pozos de energía libre de Gibbs) en los que las burbujas de nitrógeno pueden formarse y tener la suficiente estabilidad como para justificar la presencia continua de pequeñas burbujas que se puedan expandir en caso de una caída brusca de la presión ambiente.

Cuando dos superficies rígidas sumergidas en un fluido se separan rápidamente se forman burbujas de gas. Este fenómeno se llama tribonucleación. La separación rápida de superficies que están juntas en disolución tiene como consecuencia la aparición de presiones negativas en el plano de separación. Así, si bien estas pequeñas burbujas en un medio elástico son metaestables, y no duran indefinidamente, se ven reemplazadas periódicamente. Según este cuadro, pues, la tribonucleación es la fuente, y una vida media finita el sumidero, de las pequeñas burbujas detus tejidos que tienen la capacidad de hacer que una placentera jornada de buceo pueda acabar en tragedia.

Referencia:

Goldman, S. (2010). Free energy wells for small gas bubbles in soft deformable materials The Journal of Chemical Physics, 132 (16) DOI: 10.1063/1.3394940

[Esta es la segunda contribución de Experientia docet al VIII Carnaval de la Física, que este mes acoge Pirulo cósmico.]

jueves, 24 de junio de 2010

Las limitaciones del cerebro de los varones heterosexuales diestros.


Los varones homosexuales pueden recordar caras familiares más rápido y con mayor precisión que los heterosexuales porque, al igual que las mujeres, usan ambos hemisferios cerebrales, según un estudio que publica en Laterality: Asymmetries of Body, Brain and Cognition un equipo de la Universidad York (Canadá) encabezado por Jennifer Steeves. Eso sí, hay una excepción, los varones heterosexuales zurdos son aún más rápidos.

En el trabajo se examina la influencia del sexo, la orientación sexual y la mano dominante (si el sujeto es diestro o zurdo) en la capacidad para reconocer caras. La conclusión es que los varones homosexuales muestran patrones de bilateralidad (usan ambos hemisferios cerebrales) similares a los de las mujeres heterosexuales, lo que permite una mayor velocidad de recuperación de la información. Los varones heterosexuales tienden a usar más el hemisferio derecho para esas tareas.

A los participantes en el estudio, varones y mujeres hetero y homosexuales, se les pidió que memorizaran fotografías de 10 caras, y que las distinguiesen de otras 50 que se les mostraban sólo durante milisegundos cada una. Las imágenes eran en blanco y negro y se había eliminado de ellas el pelo, las orejas y las imperfecciones de la piel, rasgos todos ellos que pueden facilitar la identificación. Los voluntarios tenían que decir qué caras eran nuevas, tan rápida y precisamente como fuese posible.

Los investigadores también consideraron la influencia de la mano dominante. Encontraron que los participantes heterosexuales zurdos tenían mejores capacidades para reconocer las caras que los homosexuales zurdos y los heterosexuales diestros. Se cree que la mano dominante está relacionada tanto con el uso de los hemisferios cerebrales como con la orientación sexual. Estudios anteriores indican que los homosexuales tienen un 39% más de probabilidad de ser zurdos.

Los estudios anatómicos del cuerpo calloso, que facilita la comunicación entre los hemisferios derecho e izquierdo, también señalan diferencias relacionadas con la mano dominante: las mujeres y los varones zurdos tienen un cuerpo calloso mayor que une cortezas más simétricas. Serían estas diferencias anatómicas las que justificarían unos resultados más lateralizados entre los diestros y los heterosexuales.

Referencia:

Brewster PW, Mullin CR, Dobrin RA, & Steeves JK (2010). Sex differences in face processing are mediated by handedness and sexual orientation. Laterality, 1-13 PMID: 20544495

La imagen Hemispheres es cortesía de Guno Park.

miércoles, 23 de junio de 2010

Hace 3000 años los científicos de polímeros jugaban a la pelota.


Los olmecas estaban muy avanzados en los usos del caucho. Tanto es así que la palabra olmeca proviene del náhuatl, la lengua azteca, y significa “pueblo del caucho”. Con él hacían sandalias, bandas de goma y también pelotas, que usaban en un juego ceremonial en canchas con paredes de piedra y en ofrendas a los dioses.

Cada uno de estos productos necesita diferentes características en el caucho con el que se hacen. Una pelota requiere elasticidad para que bote, una banda de goma requiere fortaleza y una sandalia requiere resistencia al desgaste.

Un nuevo estudio realizado por Michael Tarkanian y Dorothy Hosler, del Instituto de Tecnología de Massachussets (M.I.T., por sus siglas en inglés), que se publicará próximamente en Latin American Antiquity apunta a que los pueblos mesoamericanos (olmecas, aztecas y mayas) sabían cómo obtener diferentes calidades de caucho a partir de sólo dos ingredientes: el látex del árbol del caucho (hule, árbol de la goma, Castilla elastica) y la savia de la Ipomoea alba una enredadera que crece cerca de los árboles del caucho.

Los investigadores experimentaron con látex y savia de Ipomoea alba procedentes de México y consiguieron obtener tres calidades distintas de caucho con mezclas diferentes. La elasticidad alcanza su máximo cuando se mezclan látex y savia en proporciones iguales, mientras que la durabilidad y la resistencia al desgaste se obtiene con un 25 por ciento de savia. La dureza se obtiene empleando látex puro. En todos los casos las mezclas reciben un tratamiento térmico.

Los registros más antiguos del uso del caucho por los olmecas datan del 1600 antes de la era común. Alrededor de 1839 el inventor americano Charles Goodyear descubrió el proceso de vulcanización, en el que el látex del árbol del caucho brasileño se calienta con azufre. El azufre hace que las cadenas de polímeros del látex se entrecrucen, es decir, formen enlaces entre sí creando una red. Esta estructura tridimensional es la que aporta la mayor dureza, durabilidad y elasticidad.

La savia de la Ipomoea alba es rica en aminoácidos que contienen azufre, que serían los responsables de conseguir un efecto parecido al de la vulcanización. El empleo del azufre elemental consigue que la densidad de entrecruzamiento sea mayor en el caucho vulcanizado, pero ello no quita para que los olmecas precedieran a Goodyear en más de 3000 años.


martes, 22 de junio de 2010

La incómoda verdad sobre la enfermedad de Alzheimer.


Las compañías farmacéuticas son manifiestamente reservadas, por no decir herméticas. El reloj empieza a contar para una patente en el momento en el que ésta se registra, por lo que cuanto más tiempo se pueda mantener algo en secreto mucho mejor para la cuenta de resultados. Te hueles que pasa algo raro cuando un grupo no menor de estas empresas anuncia que se unen para compartir los resultados de ensayos de fármacos ya abandonados. Y el 11 de junio ocurrió exactamente eso. Hicieron públicos los perfiles de 4000 pacientes de 11 ensayos de tal forma que cada una pudiese aprender de los fallos de la otra. Un acto desinteresado, quizás, pero también uno de desesperación.

La enfermedad de Alzheimer es, tal vez, la enfermedad más asociada con el envejecimiento. Uno espera debilidad física, pero eso se puede afrontar. La debilidad mental es mucho más terrorífica para el que la sufre y mucho más exigente para aquellos que lo tienen que cuidar. También es cara. Los mejores datos se tienen de Estados Unidos, donde el coste estimado es de 170.000 millones de dólares al año. Y se está haciendo más común conforme la gente vive más. Se espera que el número de personas que la padecen se triplique para el 2050. Por tanto, los que la sufren y la sociedad en su conjunto recibirán con entusiasmo un tratamiento efectivo. El fármaco correcto hará ganar a la compañía que lo fabrique cantidades ingentes de dinero. Los incentivos están ahí, pero…

Si uno hace una búsqueda en internet de noticias relacionadas con el Alzheimer tiene la sensación de que la cura está a la vuelta de la esquina, tal cantidad de notas de prensa hay que acaban con un “podría representar una ayuda para comprender mejor cómo curar el Alzheimer” o frase similar. El hecho cierto es que se conoce mucho mejor que hace una década qué pasa en el cerebro del enfermo, pero…

A finales del siglo pasado, la investigación sobre el Alzheimer parecía prometedora. Un aluvión de fármacos que trataban los síntomas de la enfermedad acababa de llegar al mercado y los investigadores se estaban embarcando confiados en la investigación de sus causas últimas. Conociendo éstas, habría una cura, era el mantra repetido. Todavía puede conseguirse, pero la verdad es que no se ha logrado alcanzar el nivel de conocimiento deseado. Como consecuencia se ha acumulado una larga lista de “curas” que han fallado en la última fase de ensayos.

Las manifestaciones físicas de la enfermedad que Alois Alzheimer describió en 1906 son unas placas pegajosas de un tipo de proteína, conocido ahora como beta-amiloide, y unas marañas de un segundo tipo, llamado proteína tau, que envuelven las células nerviosas. Desde 1991 todo el mundo ha dado por buena la hipótesis de que la enfermedad estaba causada por las placas, y que las marañas eran una mera consecuencia. Durante las últimas dos décadas, por tanto, la mayor parte de la atención se ha puesto en desarrollar drogas que eliminen las placas de beta-amiloide del cerebro afectado. Hay cinco fármacos en el mercado que hacen esto, pero solamente retrasan la aparición de la demencia. Una vez que su eficacia se acaba, la pérdida de memoria y el declive cognitivo progresan sin que nada lo impida, y algunas veces hasta se acelera.

En parte por lo anterior, la hipótesis de las placas se está desvaneciendo. La mayor parte de los investigadores aún creen que la beta-amiloide es la culpable, pero la idea de que las responsables son las proteínas que flotan libremente más que las que están en las placas está ganado terreno. Esta idea está apoyada en un estudio publicado en abril en los Annals of Neurology [1], en el que se demostraba que unos ratones sin placas pero con beta-amiloide libre se veían tan debilitados por la enfermedad como los ratones que tenían ambas formas. Si esto también es verdad para las personas, muchos más principios activos, ahora en fase de ensayo, serán ineficaces.

Pero si volvemos los ojos a la prevención la situación no es mucho mejor. El Instituto Nacional de la Salud (NIH, por sus siglas en inglés) de los Estados Unidos acaba de celebrar una conferencia sobre este tema. En las conclusiones podemos leer una declaración del estado de la ciencia, que usarán los médicos como guía a la hora de informar a sus pacientes aunque no constituya la política oficial del NIH. No podía ser más clara y más desalentadora: “Actualmente, no se pueden extraer conclusiones firmes sobre la asociación de cualquier factor de riesgo modificable con el declive cognitivo o con la enfermedad de Alzheimer”. Esto es, la dieta, el ejercicio físico y mental, no fumar, etc. no tendrían capacidad preventiva alguna en lo que respecta al Alzheimer (eso no quita el que esos hábitos son clara y manifiestamente saludables para otros aspectos y están asociados a una vejez de calidad). La genética no es un factor de riesgo modificable, como veremos más abajo.

Esta afirmación del NIH se basa en un estudio realizado por investigadores de la Universidad de Duke (EE.UU.) que se ha publicado en los Annals of Internal Medicine [2]. En esta revisión los autores han analizado décadas de investigaciones, incluyendo tanto estudios observacionales en los que los científicos habían investigado retrospectivamente a un grupo de participantes para revelar asociaciones entre ciertos comportamientos (como el ejercicio) y determinados efectos (como los resultados de unas pruebas de memoria y habilidades cognitivas), como ensayos clínicos en los que se asignaba al azar a los voluntarios a grupos de intervención o de control para después comprobar cómo la intervención afectaba a la capacidad cognitiva. Los autores encontraron que no había suficiente base como para recomendar ni una sola actividad o señalar un factor que actuase como protección frente al deterioro cognitivo cuando uno envejece.

Sea lo que sea lo que produce la enfermedad, y visto que no sabemos cómo prevenirla, se vuelve más interesante el detectarla lo antes posible. Pero esto es otro problema. En el momento en el que alguien presenta síntomas de comportamiento, como que se ha vuelto olvidadizo, su cerebro está ya en un alarmante estado de deterioro. Incluso una “cura” es poco probable que pueda recuperar la función perdida. Por lo tanto sería muy útil disponer de un marcador bioquímico que indicase, mediante un simple análisis, el progreso de la enfermedad, lo que permitiría por una parte identificar a las personas a las que sería aconsejable recomendar el inicio de un tratamiento y, por otra, ayudaría a distinguir a aquellos que sufren Alzheimer de los que padecen otras formas de pérdida de memoria que también vienen con la edad. Y, de no menos importancia, permitiría a los organizadores de ensayos clínicos saber más fácilmente si un fármaco está funcionando.

Con este fin, la Iniciativa de Neuroimágenes de la Enfermedad de Alzheimer (ADNI, por sus siglas en inglés), establecida por el NIH en 2004, está midiendo los niveles de ciertas proteínas en el líquido cefalorraquídeo de personas que podrían tener Alzheimer o terminar teniéndolo. Aunque el proyecto tiene todavía mucho por hacer, ya ha ayudado a desarrollar un ensayo para diagnosticar las primeras etapas de la enfermedad.

Otro enfoque al problema del biomarcador es el que está adoptando la Red Alzheimer Predominantemente Heredado (DIAN, por sus siglas en inglés), basada en la Universidad Washington en San Luis (EE.UU.). Sus investigadores están estudiando familias con una mutación genética que provoca la aparición del Alzheimer. Este conocimiento terrible significa que es posible predecir qué miembros de una familia están destinados a contraer la enfermedad, y comparar su bioquímica con la de los parientes que no tienen esta mutación.

La confesión de las compañías farmacéuticas, porque es una confesión, indica que el problema sólo tiene una vía de solución, y es la investigación. La I de I+D, la investigación básica. Nunca una inversión fue tan rentable.

Referencias:

[1]

Gandy, S., Simon, A., Steele, J., Lublin, A., Lah, J., Walker, L., Levey, A., Krafft, G., Levy, E., Checler, F., Glabe, C., Bilker, W., Abel, T., Schmeidler, J., & Ehrlich, M. (2010). Days-to-criterion as an indicator of toxicity associated with human Alzheimer amyloid-β oligomers Annals of Neurology DOI: 10.1002/ana.22052

[2]

Plassman BL, Williams JW Jr, Burke JR, Holsinger T, & Benjamin S (2010). Systematic Review: NIH State-of-the-Science Conference: Factors Associated With Risk for and Possible Prevention of Cognitive Decline in Later Life. Annals of internal medicine PMID: 20547887

domingo, 20 de junio de 2010

Einstein y...el movimiento browniano.


El mismo año en el que Einstein publicó la teoría especial de la relatividad, también publicó un artículo igualmente revolucionario sobre los movimientos aleatorios de las moléculas, algo habitualmente conocido como movimiento browniano. El movimiento de una partícula en un líquido es algo mucho menos sexy que los movimientos en el espaciotiempo o la afirmación de que la masa es una forma de energía o que la luz está constituida por partículas, por lo que la explicación de Einstein del movimiento browniano ha sido completamente eclipsada por sus otras teorías. Sin embargo, si Einstein sólo hubiese publicado el por qué las partículas se mueven como lo hacen, habría merecido el premio Nobel por ello.

En 1827 Robert Brown estudió el movimiento de los granos de polen en un líquido usando un microscopio. Descubrió que se movían al azar y sin nada aparentemente que les hiciese moverse. Antes ya había habido observaciones de este movimiento (entre ellas las realizadas por Jan Ingenhousz en 1785), pero nadie lo había estudiado de forma tan amplia, probando que los granos no se movían porque estuviesen vivos, y que partículas de vidrio o de granito exhibían el mismo comportamiento. Hoy, la idea de que las partículas intercambien el sitio con las moléculas en un líquido y, como consecuencia, se mueven al azar no parece tan extraña. Ello se debe a que estamos familiarizados con las ideas de molécula y átomo, pero en la época de Brown los científicos desconocían su existencia. En los años en los que Einstein comenzó a estudiar ciencia, la física y la química, en ese momento campos con relativamente poco en común, habían comenzado a incorporar la idea de átomo en sus teorías, pero había una gran división entre los científicos sobre si realmente existían. Quizás, pensaban algunos, los átomos y las moléculas eran simplemente una forma matemáticamente conveniente de describir ciertos fenómenos, pero no eran una representación verdadera de la realidad.

Einstein tenía muy claro que los átomos existían. Tanto es así que muchos de sus primeros trabajos de investigación asumían que la materia podía dividirse en partículas discretas. Hizo su tesis doctoral “Una nueva determinación de las dimensiones moleculares” sobre cómo determinar el tamaño de las moléculas midiendo su movimiento browniano en un líquido. Una versión de esta tesis se publicó en Annalen der Physik en abril de 1905, y es uno de los primeros artículos en mostrar de forma definitiva que las moléculas no son artificios matemáticos, sino entes reales.

Once días más tarde, Einstein publicó un artículo sobre el movimiento browniano mismo. El artículo se titulaba “Sobre el movimiento de pequeñas partículas suspendidas en líquidos en reposo requerido por la teoría cinético-molecular del calor”, por lo que no indicaba que se tratase del movimiento browniano. Simplemente decía en su párrafo de apertura que iba a describir el movimiento de las moléculas suspendidas en un líquido, y que quizás este fenómeno era idéntico a un fenómeno químico del que había oído hablar, el movimiento browniano. Desde ese punto de partida, continuó demostrando que podía usar las teorías del calor en vigor para describir cómo el calor, incluso a temperatura ambiente, provocaría que las moléculas del líquido estuviesen en continuo movimiento. Este movimiento haría a su vez que cualquier partícula suspendida en el líquido resultase empujada. Einstein acababa de ofrecer la primera explicación del movimiento browniano (Marian Smoluchowski llegaría a un resultado similar en 1906 de forma independiente).

A continuación Einstein daba una descripción matemática de cómo se moverían las partículas en el seno del líquido. Usó el análisis estadístico para calcular el camino promedio de dichas partículas. Si bien el movimiento de la partícula sería al azar, desplazándose brevemente a la izquierda para hacerlo después hacia la derecha, Einstein demostró que se podía determinar una dirección básica para el movimiento. Es análogo al movimiento de un borracho, que va para allá y después para acá, tropieza con el banco, cruza la calle tres veces, se abraza a la farola, pero en términos generales se dirige hacia su casa. Una observación del borracho permite determinar la zona hacia la que se dirige y hacer predicciones sobre el tiempo que tardará en llegar incluso sin saber exactamente con cuantos objetos tropezará durante el trayecto. Se puede obviar el azar a corto plazo para hacer predicciones acerca de lo que sucederá a largo.

El artículo de Einstein ofrecía una explicación del movimiento browniano, pero fueron otros científicos los que llevaron a cabo los experimentos que demostraron que las moléculas existían realmente, y que era la transmisión de calor la que causaba su movimiento en un líquido. En 1908, Jean Baptiste Perrin estudió la forma en la que las partículas sedimentan en el agua por la influencia de la gravedad. La sedimentación encuentra la oposición de los choques de las moléculas desde abajo, por lo que el movimiento browniano se opone a la atracción gravitatoria. Perrin usó este descubrimiento para calcular el tamaño de las moléculas de agua basándose en las ecuaciones de Einstein. Por este trabajo recibió el premio Nobel de física en 1926.

Toda esta investigación sobre el movimiento browniano resolvió el problema que enfrentaba a físicos y químicos sobre si la materia era fundamentalmente continua o estaba constituida por partículas. Con su tesis doctoral, su trabajo sobre el movimiento browniano, y su artículo sobre el efecto fotoeléctrico, Einstein fue crucial para la creciente aceptación de la existencia de átomos y moléculas. Y, sin embargo, Einstein no volvería a trabajar con nada relacionado directamente con moléculas en el resto de su carrera científica.

Referencia:


Einstein, A. Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. AdP 17, 549 (1905) Annalen der Physik, 14 (S1), 182-193 DOI: 10.1002/andp.200590005

viernes, 18 de junio de 2010

Yogur con gusanos para regular las defensas.


Nuestro intestino parece ser un lugar más cosmopolita de lo que se pensaba: aparte de multitud de bacterias también hay gusanos parásitos que contribuyen a la fortaleza de nuestro sistema inmunitario.

Investigadores de la Universidad de Manchester (Reino Unido) dirigidos por Ian Roberts y Robert Grencis publican en Science [1] que han encontrado que los gusanos parásitos del género Trichuris (moradores del intestino delgado de muchos mamíferos) dependen de las bacterias comunes del intestino, como la E. Coli, para reproducirse dentro de sus huéspedes mamíferos. Esto significa que lo más probable es que los gusanos hayan evolucionado con las bacterias con las que comparten huésped y tengan un papel más importante de lo que se pensaba a la hora de crear y modular las respuestas inmunes de los mamíferos.

Estudiando el Trichuris muris, una especie de gusano que habitualmente infecta a los ratones, los investigadores se han encontrado con que los huevos del gusano [en la imagen] solamente eclosionan en presencia de células bacterianas [en la imagen, los puntos blancos], que se habrían agrupado en las diminutas portezuelas de la cápsula del huevo por las que salen los gusanos. Si no hay bacterias, los gusanos no salen.

Esta estrategia de los gusanos tiene sentido porque su dispersión a otros huéspedes depende de que salgan del huevo en el intestino grueso, donde hay muchas bacterias y donde pondrán más huevos que saldrán del cuerpo con las heces.

Por otra parte, otras especies de Trichuris infectan a mil millones de personas en el mundo, la mayoría en regiones subtropicales. Una gran cantidad de ellas padecen una infección crónica pero de baja intensidad. Esta baja intensidad permite al parásito sobrevivir, probablemente modulando la inmunidad del huésped para su propio beneficio.

Efectivamente, los gusanos puede que tengan unos efectos importantes sobre la inmunidad de su huésped a varias infecciones, de forma similar a como la presencia de la flora microbiana modula la inmunidad.

Hace mucho que se sabe que las bacterias intestinales beneficiosas son cruciales para la función inmune del huésped. Poco después del nacimiento, las bacterias beneficiosas comienzan a colonizar el intestino de sus huéspedes mamíferos, en los que incitan la liberación de linfocitos que ayudan al sistema inmune del huésped a combatir las bacterias patógenas mientras que a ellas las dejan en paz. El trabajo del equipo de Roberts y Grencis crea un puente entre este modelo de regulación inmune y la evidencia epidemiológica de que las enfermedades autoinmunes son raras en las áreas donde las infecciones intestinales son comunes. Esta correlación (que no causalidad), debido a sus implicaciones médicas, es una que merece la pena ser investigada.

Ha habido investigaciones recientes [2] [3] sobre el uso de gusanos que causan infecciones parásitas de bajo nivel para el tratamiento de enfermedades autoinmunes. Existen tratamientos, aunque no todo el mundo esté de acuerdo con ellos, para enfermedades como la de Crohn o la colitis ulcerosa. La teoría es que los gusanos intestinales atenúan la hiperactividad de las respuestas inmunes que caracterizan las enfermedades autoinmunes.

Si la interacción huésped-gusano-bacteria se confirma como básica para el sistema autoinmune, puede que de aquí a no mucho tiempo se intente manipular. Y, ¿por qué no?, veamos a una sonrisa en televisión decir: “Yo tomo yogur con gusanos para regular mis defensas, ¿y tú?”.

Referencias:

[1]

Hayes, K., Bancroft, A., Goldrick, M., Portsmouth, C., Roberts, I., & Grencis, R. (2010). Exploitation of the Intestinal Microflora by the Parasitic Nematode Trichuris muris Science, 328 (5984), 1391-1394 DOI: 10.1126/science.1187703

[2]

Harnett W, & Harnett MM (2008). Therapeutic immunomodulators from nematode parasites. Expert reviews in molecular medicine, 10 PMID: 18561863

[3]

Długońska H (2010). [Parasitic helminths as medicines] Wiadomosci parazytologiczne, 56 (1), 19-22 PMID: 20450004

jueves, 17 de junio de 2010

Geometría algebraica para encontrar el equilibrio.



Muchas reacciones químicas, de hecho la mayoría, tienen lugar en varios pasos intermedios elementales, y una descripción de la velocidad de reacción del conjunto del proceso implica la necesidad de resolver varias ecuaciones diferenciales de primer orden de forma simultánea. Un sistema de ecuaciones de este tipo sólo se puede resolver sin recurrir a aproximaciones en casos sencillos, hay que tirar de métodos numéricos en el resto de los casos.

Una solución podría ser olvidarse de esas etapas elementales , pero si se obvian los pasos intermedios y sólo se consideran reactivos iniciales y productos finales se llegan a resultados que son diferentes de los observados experimentalmente.

Consideremos ahora una red de reacciones químicas (RRQ) como la de la imagen, que implica a 7 especies y 14 reacciones químicas. Corresponde a la RRQ de la apoptosis celular inducida por receptor ¿Es viable un modelo matemático de esta RRQ? Muy probablemente sí. ¿Y será resoluble, incluyendo por métodos numéricos? Eso ya es más difícil de responder, pues, en general los métodos de resolución convencionales no son suficientes y hay que recurrir a la artillería pesada. Y eso es lo que ha hecho un equipo de científicos españoles de la Universidad de Navarra y del Hospital Clínico de Barcelona.

Iván Martínez Forero, Antonio Peláez López y Pablo Villoslada han publicado en PLoS ONE un artículo en el que presentan un método basado en las técnicas de la geometría algebraica para simplificar los sistemas de ecuaciones de las RRQ, de tal manera que es posible localizar sus estados estacionarios, es decir, sus estados de equilibrio.

Para entender dónde entra aquí el álgebra consideremos esta sencillísima cadena de reacciones: ABC. La velocidad de transformación de A en B está gobernada por la constante k1, y la de B en C por k2. Por lo tanto el modelo del proceso es así de simple:

Esto es un sistema de dos ecuaciones diferenciales ordinarias (que es resoluble). Pero si nos fijamos, vemos que también es un conjunto de polinomios constituidos por monomios que representan las velocidades de producción y eliminación de las especies químicas. Y si tenemos sistemas de polinomios, tenemos matrices y vectores y anillos y cuerpos, tenemos álgebra en definitiva, y podemos aplicar sus métodos. Sólo hay un inconveniente, en RRQ complejas como la de la apoptosis, los polinomios no siempre son lineales.

El sistema de ecuaciones diferenciales ordinarias de una RRQ se puede representar de forma muy sencilla:

Donde N es la matriz estequiométrica, x es el vector de concentración y v es el vector de reacción. La matriz estequiométrica es una matriz m x r, donde m es el número de especies químicas y r el número de reacciones, en la que se representa la proporción de las distintas especies que intervienen en las reacciones de la RRQ. El vector de reacción representa lo que ocurre en la reacción. Así, por ejemplo, para A+BC el vector adopta la forma [-1,-1,1].

Un aspecto importante en el método presentado por los investigadores es la consideración de las relaciones conservadas. Si s es el rango de N entonces el número de relaciones conservadas es m-s. La relación de conservación da lugar a clases de compatibilidad estequiométrica que tienen una gran importancia en el estudio de las soluciones del equilibrio de las RRQ.

Si queremos hallar los puntos de equilibrio de la RRQ lo único que hemos de hacer, por tanto, es resolver la ecuación vectorial

Es decir, nos enfrentamos a la necesidad de resolver varias variables de un sistema polinómico no lineal. El método se basa en definir un nuevo sistema de ecuaciones que incorpore las relaciones de conservación a una matriz estequiométrica reducida a su forma escalonada, es decir, se basa en la estructura misma de la red sin necesidad de simularla, ni de introducir parámetros. Entonces se calcula la base de Gröbner de este nuevo sistema usando un orden de eliminación. Esto da como resultado un conjunto de polinomios con forma escalonada que identifica la región de equilibrio.

La gran limitación de este método es la capacidad de cálculo necesaria para obtener la base de Gröbner, lo que se puede resolver parcialmente dividiendo la RRQ en subredes. La geometría algebraica podría, entonces, predecir dónde aparecerá un determinado comportamiento dinámico en una RRQ, esto es, nos ayudará a encontrar el equilibrio.

Referencia:

Martínez-Forero, I., Peláez-López, A., & Villoslada, P. (2010). Steady State Detection of Chemical Reaction Networks Using a Simplified Analytical Method PLoS ONE, 5 (6) DOI: 10.1371/journal.pone.0010823

Este artículo es la participación de Experientia docet en la V edición del Carnaval de Matemáticas que acoge el blog Ciencia.

miércoles, 16 de junio de 2010

Polímeros inteligentes: de superhidrofóbicos a superhidrofílicos.


Una superficie como la de la imagen se denomina superhidrofóbica, vemos cómo las gotas de agua son esferas casi perfectas. Una superficie en la que no hubiese gotas porque éstas se extienden rápidamente sería superhidrofílica. Pues bien, existen superficies que pueden pasar de ser superhidrofóbicas a superhidrofílicas por un estímulo externo. Y tienen aplicaciones médicas.

Aunque este es un fenómeno relativamente nuevo, las superficies que cambian su comportamiento de hidrofóbico a hidrofílico dependiendo de un estímulo externo apropiado han encontrado aplicación rápidamente en los dispositivos de microfluidos y en la adhesión de células. Sin embargo las superficies que existen hasta la fecha responden a cambios de pH: son hidrofóbicas a pH bajo (ácido) e hidrofílicas a pH alto (básico). Esto limita su uso en muchas aplicaciones médicas porque a alto pH el material es aniónico y no puede interactuar con otras moléculas aniónicas como las enzimas o el propio ADN.

Ahora, el equipo de Spiros Anastasiadis, de la Universidad de Creta (Grecia), publica en Chemical Communications que ha conseguido crear una superficie que no sólo es muy superhidrofóbica (véase vídeo 1) y puede cambiar a superhidrofílica (véase video 2), sino que también presenta el comportamiento opuesto al resto de las superficies conocidas hasta ahora. Lo han conseguido injertando un polímero que responde al pH (el poli(2-diisopropilamino) etil metacrilato; PDPAEMA) en un sustrato rugoso a doble escala (micro y nano) que quiere imitar la superficie del loto (Nelumbo nucifera) [en la imagen], que aporta unas excelentes características hidrofóbicas.

Lo más interesante es que la superficie hidrofílica (cargada positivamente) puede interactuar con importantes biomoléculas aniónicas, lo que abre todo un abanico de nuevas aplicaciones. Podemos imaginar una superficie que, en determinadas condiciones, adsorba enzimas o ADN y en otras condiciones diferentes los libere. El siguiente paso será que la superficie responda a estímulos físicos y no químicos, como la longitud de onda de la luz incidente, por ejemplo.

Referencia:

Stratakis, E., Mateescu, A., Barberoglou, M., Vamvakaki, M., Fotakis, C., & Anastasiadis, S. (2010). From superhydrophobicity and water repellency to superhydrophilicity: smart polymer-functionalized surfaces Chemical Communications, 46 (23) DOI: 10.1039/c003294h

martes, 15 de junio de 2010

De humanos, rotíferos y sexo.


Un nuevo estudio, publicado en los Proceedings of the National Academy of Sciences por el equipo de Julia Kubanek del Instituto de Tecnología de Georgia ( EE.UU.), pone de manifiesto que unos minúsculos animales acuáticos llamados rotíferos tienen algo importante en común con los humanos en lo que concierne al sexo.

Prácticamente invisibles sin microscopio, los rotíferos comen algas y son el alimento de las crías de algunos peces. Hasta aquí nada extraordinario, pero las hembras de ciertas especies pueden hacer algo nada común: se reproducen asexualmente creando clones de sí mismas, o pueden iniciar un proceso que permite la reproducción sexual produciendo rotíferos machos.

El mediador químico para este cambio de reproducción sexual a sexual resulta ser la progesterona, una molécula que también juega un papel fundamental en la regulación de la reproducción y el desarrollo sexual en los humanos y en otras muchas especies. Este hallazgo implica que la transmisión de señales vía progesterona tendría cientos de millones de años, aunque exactamente la misma molécula se emplee en dos aspectos muy diferentes de la reproducción. Es la primera vez, que conozcamos, que esta relación se pone de manifiesto.

La mayoría de los animales se reproduce sexualmente, un método que hace a la especie más adaptable al facilitar la eliminación de genes inadecuados y creando las condiciones para que se produzcan nuevas combinaciones genéticas potencialmente beneficiosas. Los organismos muy simples, como las bacterias, se reproducen mediante división celular y obtienen nuevo material genético del entorno.

El rotífero Brachionus manjavacas está en medio. Durante la mayor parte del año, la población de este rotífero consiste sólo de hembras, que se reproducen creando clones de sí mismas. Pero cuando las condiciones ambientales se vuelven amenazadoras (por ejemplo, por disminución de las algas que sirven para su sustento) alrededor de un tercio de la población rotífera cambia a reproducción sexual, que es la única forma en la que estas criaturas pueden producir huevos capaces de sobrevivir, por ejemplo, a un largo invierno.

Kubanek y sus colegas querían averiguar qué era lo que iniciaba este cambio, que comienza con la producción de rotíferos macho. El cambio parece depender de una feromona (una proteína) que los rotíferos liberan en el agua para indicar que hay otros rotíferos cerca. Cuando la población de rotíferos se hace lo bastante larga como para crear una concentración significativa de esa proteína, las hembras comienzan a poner huevos que se desarrollan como machos. Esta masa crítica suele alcanzarse a finales del otoño, cuando se acerca el fin del suministro de algas con la llegada del invierno.

Para poder llegar a comprender este complejo proceso, el equipo de investigadores hizo uso de todo un repertorio de técnicas. Primero se revisó el genoma (secuenciado parcialmente) del rotífero hasta que se encontró el gen del receptor de una molécula parecida a la progesterona. Usaron entonces un marcador fluorescente desarrollado ex profeso para comprobar que la progesterona efectivamente se une a un receptor en los sistemas reproductivos de los rotíferos femeninos [en la imagen]. Se pudo comprobar que esto era así mediante el empleo del mismo marcador para la extracción por cromatografía de afinidad (una técnica de separación que se basa en que la reacción entre ligando y receptor es específica) de ese mismo receptor de una mezcla de proteínas de los rotíferos. Por si esto fuese poco, también se determinó la presencia de progesterona por espectrometría de masas, en partes por mil millones, en la masa del rotífero.

Finalmente, el equipo de Kubanek demostró la conexión directa entre la hormona y el cambio a reproducción sexual usando tecnología de interferencia de ARN para silenciar la expresión del gen del receptor, lo que resultó en que se redujese en dos tercios el número de animales que cambiaban a reproducción sexual en respuesta a la señal de la progesterona.

La progesterona está claramente implicada en el proceso, pero aún habrá más por descubrir en este proceso en cascada. Una magnífica oportunidad para estudiar la relación entre metabolismo, entorno, hormonas y comportamientos.

Referencia:

Stout, E., La Clair, J., Snell, T., Shearer, T., & Kubanek, J. (2010). Conservation of progesterone hormone function in invertebrate reproduction Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1006074107