jueves, 28 de julio de 2011

El cáncer como enfermedad parasitaria o la carcinogénesis como especiación.



El recnac es autónomo. En complejidad es comparable a una bacteria. No depende de otras células para su supervivencia. Una vez dentro de un cuerpo no sigue las órdenes que obedecen las otras células de ese cuerpo. El recnac es genéticamente diferente de las otras células del cuerpo donde reside. El recnac puede crecer donde, cuando y como prefiera.

Al dar estas características parece que estuviésemos describiendo el recnac como una especie invasora, un parásito. Sólo nos faltaría saber que el recnac puede infectar otros cuerpos para colocarle la etiqueta de parásito; y aquí es donde la diferencia con el cáncer se debería hacer patente, ya que asumimos que el cáncer no es contagioso, lo que es cierto para un porcentaje tremendamente alto de tipos de cáncer. Pero se conocen tres cánceres transmisibles: el tumor facial de los demonios de Tasmania, el tumor venéreo transmisible canino, en ambos casos basta una sola célula cancerosa completa, y el cáncer transmisible de los hamsters. Visto así, recnac y cáncer, el primero ficticio, el segundo real, tienen las mismas características, las de un parásito.

Un paciente de cáncer puede percibir su tumor como un parásito que se reproduce y toma el control de su cuerpo. Pero para el equipo de investigadores de la Universidad de California en Berkeley (Estados Unidos) encabezado por Peter Duesberg esta imagen es algo más que una metáfora. Según un artículo [1] que publican en Cell Cycle los tumores cancerosos son organismos parasitarios; cada uno es una nueva especie que, como la mayoría de los parásitos, depende de su huésped para su alimentación pero por lo demás funciona independientemente y, a menudo, en detrimento de su huésped. Dicho formalmente, la carcinogénesis (la generación de un cáncer) es simplemente una forma de especiación (la evolución de una nueva especie). Esta aproximación puede resultar útil a la hora de comprender el crecimiento del cáncer y sus metástasis.

La idea de que la formación del cáncer sea similar a la evolución de una nueva especie no es nueva. Ya en 1956 Julian Huxley hablaba de la consideración del tumor canceroso como una nueva especie biológica. Más recientemente Mark Vincent argumentaba en Evolution [2] que la carcinogénesis y la evolución clónica de las células cancerosas son eventos de especiación en sentido darwiniano estricto. La novedad del trabajo de Duesberg et al. estriba en su crítica a la teoría de la mutación y en la importancia del cariotipo. Pero vayamos por partes.

Los argumentos del equipo de investigadores parten de una propuesta, cuando menos, controvertida: afirman que la idea de que los tumores comienzan con un puñado de genes mutados haciendo que una célula tenga un crecimiento incontrolado es errónea (¡ojo!, que estas son palabras mayores). Los investigadores afirman que la carcinogénesis se iniciaría por una alteración de los cromosomas, lo que lleva a duplicaciones, eliminaciones, roturas y daños cromosómicos varios que alteran el equilibrio, no de unos cuantos genes, sino de decenas de miles. El resultado es una célula con características completamente nuevas, con un nuevo fenotipo.

La teoría de la mutación es la teoría imperante hoy día a la hora de enfrentarse al cáncer. Muchos de los fármacos que se emplean en el tratamiento se basan en la idea de bloquear estas mutaciones. Sin embargo, muy pocos cánceres se han curado usando fármacos dirigidos a estas dianas e, incluso si el fármaco ayuda al paciente a sobrevivir 6, 9 o más meses las células cancerosas terminan en muchas ocasiones encontrando una forma de seguir creciendo.

La alteración de los cromosomas, llamada aneuploidía, ya se sabe que causa problemas. El síndrome de Down, puede que el ejemplo más conocido, está causado por la existencia de una tercera copia del cromosoma 21, cuando los humanos tenemos 23 pares de cromosomas habitualmente [en la imagen, A]. Según el equipo de Duesberg todas las células cancerígenas son todas aneuploides [en la imagen , B]; lo que los proponentes de la teoría de la mutación consideran un efecto del cáncer, no la causa.

Una idea central en la teoría de Duesberg es que alguna mutación cromosómica inicial, quizás afectando al mecanismo que duplica o separa los cromosomas como preparación para la división celular, altera los cromosomas celulares, rompiendo algunos o haciendo copias extra de otros. Normalmente esto implica una sentencia de muerte para la célula, pero en algunos casos improbables, estos cromosomas alterados podrían seguir dividiéndose, perpetuando y agravando el daño. A lo largo de las décadas de vida de una persona , la continua división celular produciría muchas células inviables así como algunas capaces de dividirse autónomamente y ser el origen de un cáncer.

Asumida esta idea, el paso que dan Duesberg et al. parece lógico: el cáncer es una nueva especie porque aquellas células alteradas lo suficientemente viables como para continuar dividiéndose desarrollan patrones cromosómicos relativamente estables, los denominados cariotipos [en la imagen, cariotipos de una célula humana de varón normal, A, y cancerosa, B], distinto del patrón cromosómico del huésped. Si bien todos los organismos que se conocen hoy día tienen cariotipos estables, con todas las células conteniendo exactamente 2 ó 4 copias de cada cromosoma, los cánceres exhiben unos cariotipos más flexibles e impredecibles, que incluyen no sólo cromosomas intactos del huésped sino también cromosomas parciales, truncados y simples muñones.

Si los humanos cambiásemos nuestro cariotipo, el número y disposición de nuestros cromosomas, o moriríamos o no podríamos reproducirnos o, en muy raras ocasiones, nos convertiríamos en una especie distinta. Pero las células cancerosas simplemente se dividen produciendo copias de sí mismas. No tienen que ocuparse de buscar otra célula para reproducirse. De hecho, siempre y cuando los genes de la mitosis estén intactos una célula cancerosa puede sobrevivir con muchos cromosomas alterados y desequilibrados, como los que se encuentran en una célula aneuploide. El cariotipo cambia cuando una célula cancerosa se divide, ya que el estado de los cromosomas impide su copia perfecta, pero cambia dentro de ciertos límites, manteniéndose estable dentro de ellos.

Cariografo de 20 células sanas de un varón humano.
Duesberg y sus colegas han desarrollado una forma de expresar gráficamente el cariotipo, el cariografo. El cariografo permite visualizar la naturaleza aneuploide del cariotipo de la célula y su estabilidad a lo largo de numerosos cultivos celulares. Usando estos cariografos los investigadores han analizado varios cánceres, mostrando claramente que el cariotipo es sorprendentemente similar en todas las células de una línea cancerígena concreta, pero totalmente diferente de los cariotipos de otros cánceres y, lo que es más importante, diferente del mismo cáncer pero de otro paciente.

Cariografo de 20 células HeLa
Un ejemplo especialmente significativo son las células HeLa, quizás la línea de cáncer más famosa de la historia. Las células HeLa se obtuvieron en 1951 de un cáncer cervical que terminó matando a una joven afroamericana llamada Henrietta Lacks. La línea celular de 60 años de edad derivada de su cáncer tiene un cariotipo relativamente estable que la mantiene viva división tras división.

Según los autores, una vez que la célula ha traspasado la barrera de la autonomía es una nueva especie. Así las células HeLa habrían evolucionado en el laboratorio y son ahora probablemente más estables que cuando aparecieron la primera vez.

Los cariotipos de los cánceres se asemejan pues a los distintos cariotipos de las diferentes especies. Si bien los biólogos no han caracterizados los cariotipos de la mayoría de las especies, no se conocen dos especies que tengan el mismo número y disposición de los cromosomas, ni siquiera aquellas, como gorilas y humanos, que comparten el 99% de la carga genética.

Los investigadores afirman que esta teoría de la especiación explica la autonomía e inmortalidad del cáncer así como su cariotipo relativamente estable y flexible. También explicaría el largo período de latencia entre la aneuploidización y el cáncer propiamente dicho, dada la baja probabilidad de que evolucione un cariotipo autónomo.

Nota:

Peter Duesberg es un negacionista del SIDA y, por lo tanto, sus investigaciones últimamente están todas manchadas por esta posición. Pero, siguiendo la política de Scientific American, que nos parece correcta, hemos presentado su trabajo aquí porque pensamos que sus ideas sobre el cáncer, a cuyo conocimiento ha aportado avances significativos, constituyen una hipótesis objetivamente digna de consideración, sea finalmente correcta o no.

Referencias:

[1] Duesberg, P., Mandrioli, D., McCormack, A., & Nicholson, J. (2011). Is carcinogenesis a form of speciation? Cell Cycle, 10 (13), 2100-2114 DOI: 10.4161/cc.10.13.16352

[2] Vincent, M. (2009). THE ANIMAL WITHIN: CARCINOGENESIS AND THE CLONAL EVOLUTION OF CANCER CELLS ARE SPECIATION EVENTS SENSU STRICTO Evolution, 64 (4), 1173-1183 DOI: 10.1111/j.1558-5646.2009.00942.x

martes, 26 de julio de 2011

Sin privilegios: confirmación del principio copernicano a escala de gigaparsecs.

Inhomogeneidades a corta distancia en una imagen de campo profundo del Hubble.


La constante de Hubble recibe su nombre por Edwin Hubble, el astrónomo cuyo trabajo demostró que el universo se expande. Esta constante mide la velocidad a la que dicha expansión tiene lugar. Por otra parte, se atribuye a Nicolaus Copernicus la afirmación de que la Tierra no ocupa una posición de privilegio en el Sistema Solar; esta idea se ha extrapolado a lo que se llama el principio copernicano, esto es, que la Tierra no ocupa ninguna posición central, ni especialmente favorecida en un universo por lo demás homogéneo. Según el principio copernicano la medición del valor experimental de la constante de Hubble en cualquier punto del universo debería arrojar el mismo valor.

Pero, ¿qué ocurriría si el principio copernicano no se cumpliese? Imaginemos que la Tierra estuviese en el centro o cerca del centro de una región del espacio interestelar de muy baja densidad de materia (un vacío relativo). La burbuja de vacío que rodea la Tierra estaría rodeada por regiones con una densidad de materia muy superior que tendría el efecto de atraer fuertemente a la materia situada en las cercanías del centro de esa burbuja. Consecuentemente, las estrellas dentro de esta “burbuja de Hubble” se verían aceleradas alejándose de la Tierra mucho más rápidamente que la expansión general del universo. Si nos fijamos tenemos de una forma simple una explicación alternativa al universo con una expansión acelerada que no necesita recurrir a la energía oscura. Este punto hace que los modelos llamados del vacío mantengan su popularidad en algunos ámbitos, a pesar de que la evidencia experimental (indirecta) a favor de la energía oscura nos debería llevar a descartarlos.

Ahora, Pengjie Zhang, del Observatorio Astronómico de Shanghai (China), y Albert Stebbins, del Fermilab (Estados Unidos) demuestran que tanto el modelo del vacío como otros que intentan reemplazar la energía oscura, no son consistentes con los datos observados. Su trabajo aparece publicado en Physical Review Letters.

Los investigadores básicamente se hacen dos preguntas muy sencillas: ¿qué tamaño tendría que tener la burbuja de Hubble para ser coherente con los datos del universo observado?, y ¿qué consecuencias observables tendría una burbuja de este tamaño? La observación del universo muestra que este es homogéneo al menos hasta la escala de los gigaparsecs. Y esto ¿es mucho o poco? Un gigaparsec (1 Gpc) es equivalente a 3.226 millones de años luz; por si el número no nos dice nada consideremos que el límite del universo observable está a 14 Gpc. Por lo tanto, la burbuja tendría un tamaño significativo y una inhomogeneidad así debería hacerse notar. Específicamente, Zhang y Stebbins afirman que, en el caso de que existiese una burbuja de Hubble de ese tamaño, debería poder detectarse como un cambio de temperatura significativo en la radiación de fondo de microondas (RFM), esos fotones que son una reliquia originada sólo 400.000 años después del Big Bang. Pero esas diferencias de temperatura no han sido detectadas por los telescopios que estudian la RFM.

Si bien el trabajo de Zhang y Stebbins no puede descartar violaciones más sutiles del principio copernicano, sí establece una barrera muy difícilmente superable para futuros modelos.

Referencia:

Zhang, P., & Stebbins, A. (2011). Confirmation of the Copernican Principle at Gpc Radial Scale and above from the Kinetic Sunyaev-Zel’dovich Effect Power Spectrum Physical Review Letters, 107 (4) DOI: 10.1103/PhysRevLett.107.041301

jueves, 21 de julio de 2011

Primera red neuronal artificial basada en ADN.




Antes de que evolucionasen los cerebros basados en neuronas las células necesitaban algún tipo de mecanismo que les permitiese adaptarse a un entorno cambiante. Ese mecanismo era lo que podemos llamar un circuito biomolecular, esto es, una serie de interacciones moleculares que arrojaban un resultado u otro dependiendo de los estímulos exteriores, dándole a la célula un comportamiento “inteligente”. Si bien la hipótesis existía de que los sistemas biomoleculares realizaban computaciones in vivo del tipo de las que hacen las redes neuronales, e incluso existían propuestas teóricas de cómo podían sintetizarse sistemas análogos, no existía ninguna evidencia experimental. Ahora, un equipo de investigadores encabezado por Lulu Qian, del Instituto de Tecnología de California (Estados Unidos), presenta la primera red neuronal biomolecular, basada en ADN, que puede acceder a “recuerdos” a partir de patrones incompletos, exactamente como hace un cerebro. Los resultados se publican en Nature.

Los investigadores basaron su red neuronal bioquímica en un modelo simple de neurona: una función de umbral lineal. La neurona modelo recibe señales de entrada, las multiplica por un peso positivo o negativo, y sólo si la suma de los pesos de las entradas sobrepasan un cierto umbral se “activa” la neurona, produciendo una salida. Este modelo es una sobresimplificación de las neuronas reales pero ha probado ser bastante bueno.

Para construir la red neuronal de ADN, consistente en cuatro neuronas y un total de 112 cadenas de ADN, los científicos emplearon un proceso llamado cascada de desplazamiento de la secuencia. Este proceso fue desarrollado para otro de los logros de este equipo, un circuito de ADN que calcula raíces cuadradas. Pero veamos en qué consiste, que tiene más nombre que dificultad de concepto.

Imagina una doble hélice de ADN, son dos cadenas emparejadas perfectamente, como una cremallera. Ahora imagina que pudieses tirar de las dos cadenas en sentido opuesto de tal forma que como resultado por cada extremo sobresale una sola cadena y en la parte central sigues teniendo la cadena doble. Esto es lo que se llama desplazamiento de la secuencia. Mientras flotan estas cadenas “parcialmente dobles” en una disolución acuosa en la que también hay presentes cadenas sencillas, puede ocurrir que una cadena sencilla se una a la cola de una cadena parcialmente doble. Los condicionantes termodinámicos hacen posible que la unión de esta cadena sencilla desplace completamente la otra cadena de la doble hélice, creando una nueva cadena parcialmente doble y una nueva cadena sencilla. La cadena sencilla inicial sería una entrada (input) y la cadena sencilla final sería una salida (output).

Como se pueden sintetizar cadenas de ADN con la secuencia de bases que se quiera, los investigadores pueden programar estas interacciones para que se comporten como una red de neuronas modelo. Ajustando las concentraciones de cada cadena de ADN en la red, los científicos pueden enseñarle a ésta a recordar patrones únicos de respuestas sí/no que caracterizan una salida (output) determinada. A diferencia de otras redes neuronales que pueden aprender de ejemplos, en este caso fueron cálculos por ordenador de las concentraciones necesarias los que se usaron para implantar los “recuerdos” en la red neuronal de ADN.

La red neuronal está de esta manera preparada para jugar a un juego de adivinación en el que trata de identificar a un científico misterioso. Los investigadores “entrenaron” a la red neuronal para que “conociese” a cuatro científicos, cada una de cuyas identidades está representada por un conjunto único y específico de respuestas a cuatro preguntas sí/no (¿es británico?¿tiene un Nobel?, etc.).

¿Cómo funciona en la práctica? Tras pensar en un científico de los cuatro, un jugador humano da un subconjunto de respuestas que identifican parcialmente a un científico. El jugador introduce en el tubo de ensayo esas pistas en forma de cadenas de ADN sencillas (inputs) que corresponden a esas respuestas. La red neuronal realiza sus “cálculos” y comunica su resultado en forma de señales fluorescentes correspondientes a las cadenas de ADN de salida (output) que vendrían a interpretarse como “el científico en el que estás pensando es...”. Si los datos de entrada no son suficientes para dar una respuesta concreta, la red puede “decir” que no tiene información suficiente como para elegir a un científico concreto o que las pistas son contradictorias. Los investigadores jugaron con 27 formas distintas de responder a las preguntas y el sistema dio la respuesta correcta cada vez. El sistema demuestra así su capacidad de “deducir” una respuesta a partir de datos incompletos, algo que habitualmente se atribuye al cerebro como algo característico.

Pongamos el hallazgo un poco en contexto. Si bien el experimento es lo que se llama una prueba de principio, es decir, que esto puede hacerse, esta red neuronal es muy limitada, incluso sus posibilidades de expansión son muy limitadas. Considera que un cerebro humano tiene del orden de cien mil millones de neuronas, por no hablar del número de conexiones entre ellas; crear una red neuronal de ADN de 40 neuronas, 10 veces el tamaño de la que estamos hablando, ya representa un reto gigantesco. Además, el sistema es muy lento: emplea ocho horas para dar una respuesta. Por si fuera poco el sistema es de un sólo uso. Por lo tanto, esto es muy interesante, tremendamente interesante, pero dentro de un orden.

Pero las limitaciones del sistema para crear una superinteligencia en un tubo de ensayo no nos deben ocular las posibilidades más realistas que tienen los sistemas bioquímicos con inteligencia artificial (como puede que el nombre quede grande, digamos capacidades básicas de toma de decisiones). Podemos pensar en aplicaciones en la investigación médica, biológica o química. Estos sistemas podrían operar dentro de las células dando pistas sobre qué está ocurriendo o diagnosticando una enfermedad. Los procesos bioquímicos que pueden responder de forma “inteligente” a la presencia de otras moléculas podría permitir a los químicos producir compuestos cada vez más complejos o construir nuevas estructuras, molécula a molécula.

No podemos negar que el desarrollo de estos sistemas, más allá de los retos tecnológicos, podrían arrojar luz, aunque fuese indirectamente, sobre la evolución de la inteligencia.

Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros.

Referencia:

Qian, L., Winfree, E., & Bruck, J. (2011). Neural network computation with DNA strand displacement cascades Nature, 475 (7356), 368-372 DOI: 10.1038/nature10262


miércoles, 20 de julio de 2011

Evolución química en el laboratorio: una bacteria incorpora un veneno como base genética.


Un equipo internacional de investigadores encabezado por Philippe Marlière, de Heurisko Inc. (Estados Unidos), ha sido capaz de generar en el laboratorio una cepa bacteriana cuyo material genético reemplaza la base timina, una de las cuatro que componen el alfabeto del ADN, con una molécula análoga, 5-clorouracilo, pero que en condiciones normales es venenosa. Este logro tiene implicaciones importantes para la xenobiología y para la seguridad en la producción de organismos sintéticos. Los resultados se publican en Angewandte Chemie.

Timina
Los investigadores comenzaron con una cepa de Escherichia coli genéticamente modificada que ya no puede producir timina (5-metiluracilo). Estas bacterias se cultivaron durante muchas generaciones en presencia de cantidades cada vez mayores de 5-clorouracilo. Cada vez que la población caía por debajo de un determinado nivel, las bacterias recibían una pequeña dosis de medio de cultivo libre de clorouracilo pero con algo de timina, lo que les daba la oportunidad de recuperarse. La concentración de clorouracilo se incrementaba automáticamente cada vez que las variantes genéticas de las bacterias iban tolerando mejor el veneno.

5-clorouracilo
Continuando de esta manera se llegó a concentraciones de clorouracilo que ya eran difícilmente tolerables por las bacterias. Tras unas 1000 generaciones, los microorganismos se habían adaptado a las nuevas condiciones ambientales incorporando el 5-clouracilo a su ADN para reemplazar a la timina en un 90%. Un análisis pormenorizado del genoma mostró que el proceso de adaptación había resultado en multitud de cambios en el material genético.

La xenobiología es una rama nueva de la biología sintética. Su objetivo es crear organismos que posean metabolismos no encontrados en la naturaleza que puedan sustentarse en fuentes de energías alternativas o capaces incorporar sustancias nocivas o que produzcan compuestos de interés farmacológico/industrial. Uno de los riesgos más graves a los que se enfrenta la xenobiología desde el punto de vista de la seguridad es la contención de los organismos que produce, esto es, impedir que se escapen y reproduzcan libremente. El trabajo de Marlière et al. ofrece una vía para una contención más efectiva ya que los organismos con sus genomas modificados de esta manera no pueden reproducirse con los naturales.

No podemos dejar de mencionar los paralelismos de este estudio con los de la presunta vida basada en el arsénico, si bien las diferencias metodológicas (y químicas) son evidentes.


Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros y en el Biocarnaval de Verano que alberga MarimarusBlog.  

Referencia:

Marlière, P., Patrouix, J., Döring, V., Herdewijn, P., Tricot, S., Cruveiller, S., Bouzon, M., & Mutzel, R. (2011). Chemical Evolution of a Bacterium’s Genome Angewandte Chemie International Edition DOI: 10.1002/anie.201100535


martes, 19 de julio de 2011

Los electrones solvatados pueden convertir un cemento en semiconductor.


Cuando nos preguntan cuál es el catión más pequeño respondemos, a poco que hayamos estudiado algo de química general, que es el protón. Si nos preguntan en cambio por el anión más pequeño es probable que respondamos fluoruro o algo similar. Sin embargo una serie de disoluciones que se conocen desde hace dos siglos y están descritas a nivel molecular desde hace casi uno, nos indican que el electrón se comporta como un anión, solvatándose (rodeándose de forma ordenada) con moléculas del solvente, y dotando a la disolución de propiedades metálicas. Ahora, un equipo de investigadores del Instituto Tecnológico de Tokio (Japón), encabezado por Sung Wgn Kim, ha conseguido electrones solvatados en mayenita, un componente de los cementos aluminosos, haciendo al compuesto fundido conductor y a su forma sólida (amorfa) semiconductora. Los resultados se publican en Science.

En 1808 Humphry Davy describió lo que ocurría cuando exponía un metal alcalino al amoniaco: a bajas concentraciones la disolución adquiría un color azul brillante y se comportaba como un electrolito; pero si aumentaba la concentración por encima de lo que hoy llamaríamos 3M (tres molar) la disolución adquiría un intenso color de bronce dorado y tenía la conductividad de un auténtico metal. No fue hasta 1914 que se dio una descripción del fenómeno: “el electrón negativo rodeado con un recubrimiento de moléculas de solvente”; en 1916 se introdujo el término “electrones solvatados” para describir al anión más simple en disolución.

Lo que ha conseguido ahora el equipo de Kim es demostrar que un fenómeno equivalente puede cambiar la mayenita 12CaO·7Al2O3 de aislante a conductor metálico. Los investigadores consiguen que sea conductor a temperaturas muy altas (1873 K), reduciendo la mayenita con titanio. Este tratamiento reemplaza algunos de los oxígenos de la estructura con electrones solvatados que terminan atrapados en una jaula atómica.

Con estos electrones solvatados la mayenita pasa de ser transparente e incolora a marrón oscura. En el estado fundido la mayenita presenta una conducción metálica cinco órdenes de magnitud superior a la habitual. En la forma sólida (amorfa, no es un cristal sino un vidrio), la mayenita es menos conductora, y los investigadores creen que se debe a que los electrones enjaulados forman pares de espín correlacionados (pares diamagnéticos).

El desarrollo de materiales con electrones solvatados como la mayenita podría dar paso a la consecución de vidrios semiconductores.

Hay un aspecto al que los investigadores no han conseguido dar de momento una explicación, y que será también más o menos evidente para el que haya leído hasta aquí: ¿cómo se mueven los electrones en la estructura de mayenita?

Esta es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros.

Referencia:

Kim, S., Shimoyama, T., & Hosono, H. (2011). Solvated Electrons in High-Temperature Melts and Glasses of the Room-Temperature Stable Electride [Ca24Al28O64]4+*4e- Science, 333 (6038), 71-74 DOI: 10.1126/science.1204394

lunes, 18 de julio de 2011

¿De dónde proviene la mitad del calor de la Tierra?



El equipo del detector de neutrinos KamLAND ha combinado datos obtenidos por su propio detector con los de Borexino (Italia) para llegar a la conclusión de que la desintegración radiactiva contribuye con unos 24 TW al total de 44 TW de calor que emite la Tierra. Ello implicaría que casi la mitad del calor emitido es, o bien el llamado primordial, el generado durante la formación del planeta, o existe otra fuente de calor desconocida. Los resultados se publican en Nature Geoscience.

Se estima que el interior del planeta genera 44 teravatios (4,4·1013 julios cada segundo) que se radian al espacio. Es este calor el que mueve los continentes. El que hace que permanezca fundido el hierro del núcleo externo generando el campo magnético terrestre. Pero, ¿de dónde proviene el calor de la Tierra?

Se sabe que la desintegración radioactiva del uranio, el torio y el potasio de la corteza y el manto es la fuente principal. La cuestión está en medir realmente a cuánto asciende esta contribución para, a partir de ahí ajustar los modelos existentes del funcionamiento de la Tierra. En 2005 se demostró que una forma de realizar esta medición es la detección de geoantineutrinos emitidos cuando los isótopos radioactivos se desintegran.

Los neutrinos se detectan en telescopios especialmente construidos para ello (véase Sobre telescopios de neutrinos). Pero para la medición que nos ocupa no sirve cualquiera; de hecho debe reunir dos condiciones: que esté diseñado para la detección de antineutrinos y que tenga sensibilidad suficiente como para discriminar los geoantineutrinos del ruido de fondo (básicamente neutrinos procedentes de reactores nucleares). La colaboración KamLAND, basada en Japón, reúne estas condiciones.

KamLAND se diseñó originalmente para detectar los antineutrinos procedentes de los más de 50 reactores japoneses, algunos próximos al telescopio, otros muy alejados, con la idea de estudiar un fenómeno llamado oscilación del neutrino. Los reactores producen neutrinos electrónicos pero conforme viajan oscilan y se convierten en neutrinos muónicos y neutrinos tau, los otros dos sabores leptónicos. La oscilación del neutrino es una prueba de que su masa es distinta de cero, pero esta es otra historia.

El KamLAND es capaz de diferenciar los neutrinos procedentes de reactores nucleares de los provenientes de la desintegración natural basándose en la diferente energía de unos y otros y en el ritmo de producción, siendo el de los de origen geológico constante. Éstos provienen fundamental, pero no exclusivamente, de la desintegración del uranio-238, el torio-232 y el potasio-40. Estos tres elementos, según la clasificación de Goldschmidt, son litófilos, por lo que se encuentran en la corteza y el manto.

Pero no todo iba a ser perfecto. El sistema de detección de KamLAND (de doble coincidencia) siendo muy sensible no lo es lo suficiente para detectar los neutrinos de la parte baja del rango de energías de la desintegración del 238U y del 232Th, y es completamente insensible a los antineutrinos del 40K. También es insensible a otras desintegraciones, pero la contribución de éstas se considera despreciable.

KamLAND detectó 841 eventos candidatos a antineutrino entre marzo de 2002 y noviembre de 2009, de los cuales 730 fueron eventos de reactores o similares. El resto, 111, fueron de la desintegración de uranio y torio terrestres. Estos resultados combinados con los del experimento Borexino en el Gran Sasso (Italia) permitieron el cálculo del calor terrestre proveniente de la desintegración del uranio y el torio: 20 TW. Este dato, junto con el ya conocido previamente de 4TW de contribución del potasio y otras fuentes radioactivas, arrojan el total de 24 TW. Eso sí, con una incertidumbre importante (± 8 TW), debido a todos los factores a tener en cuenta.

Este dato habría que confirmarlo con mediciones hechas en otros detectores de antineutrinos, idealmente localizados en islas en mitad del océano, alejadas de reactores nucleares, donde la corteza es muy fina y las concentraciones locales de radiactividad son muy bajas. Porque de confirmarse este valor queda una pregunta sin respuesta: ¿de dónde proviene la mitad del calor de la Tierra?

Esta entrada es una participación de Experientia docet en la III Edición del Carnaval de Geología que acoge El Pakozoico

Referencia:

Gando, A., Gando, Y., Ichimura, K., Ikeda, H., Inoue, K., Kibe, Y., Kishimoto, Y., Koga, M., Minekawa, Y., Mitsui, T., Morikawa, T., Nagai, N., Nakajima, K., Nakamura, K., Narita, K., Shimizu, I., Shimizu, Y., Shirai, J., Suekane, F., Suzuki, A., Takahashi, H., Takahashi, N., Takemoto, Y., Tamae, K., Watanabe, H., Xu, B., Yabumoto, H., Yoshida, H., Yoshida, S., Enomoto, S., Kozlov, A., Murayama, H., Grant, C., Keefer, G., Piepke, A., Banks, T., Bloxham, T., Detwiler, J., Freedman, S., Fujikawa, B., Han, K., Kadel, R., O’Donnell, T., Steiner, H., Dwyer, D., McKeown, R., Zhang, C., Berger, B., Lane, C., Maricic, J., Miletic, T., Batygov, M., Learned, J., Matsuno, S., Sakai, M., Horton-Smith, G., Downum, K., Gratta, G., Tolich, K., Efremenko, Y., Perevozchikov, O., Karwowski, H., Markoff, D., Tornow, W., Heeger, K., & Decowski, M. (2011). Partial radiogenic heat model for Earth revealed by geoneutrino measurements Nature Geoscience DOI: 10.1038/ngeo1205

domingo, 17 de julio de 2011

Tu cara no me suena, pero a mi cerebro sí.



Imagina por un momento que naces con la incapacidad de reconocer las caras, incluida la tuya. No distingues a tu madre de una completa desconocida o a tu hermano de un extraño. Se te presenta una disyuntiva: o desarrollas métodos alternativos de reconocer a los tuyos o puedes tener serios problemas en y para tu vida. Uno de estos mecanismos lo hizo famoso Oliver Sacks, neurocientífico que padece este trastorno llamado prosopagnosia, cuando escribió sobre cómo su mujer tenía que llevar un llamativo sombrero para que él la pudiese reconocer.

La prosopagnosia podría explicar comportamientos considerados antisociales o asociales. ¿Cómo te comportarías si esa persona que se aproxima no sabes si es conocido o desconocido, amigo o enemigo? Probablemente hablando poco, esperando obtener pistas que te digan quién tienes delante. Las situaciones sociales serían muy estresantes y terminarías aborreciéndolas, volviéndote solitario. Una persona famosa por este tipo de comportamiento fue el físico Paul Dirac, que se especula con que tuviese este padecimiento. Se estima que el 2,5% de la población padece prosopagnosia congénita en un grado u otro, la mayor parte sin diagnosticar.

Pero, ¿qué ocurre cuando la prosopagnosia es sobrevenida a causa de un accidente? Los cambios en el comportamiento son extremos y familiarmente muy problemáticos, el ejemplo más dramático puede que sea el de una madre que deja de reconocer a sus hijos pequeños. Pero estos cambios también contribuyen a conocer mejor cómo el sistema nervioso gestiona la consciencia, esa punta del iceberg del funcionamiento del encéfalo.

Un estudio [1] llevado a cabo por un equipo de investigadores encabezado por Stéphane Simon, de la Universidad de Ginebra, y publicado en Córtex demuestra cómo el encéfalo continúa procesando la información incluso cuando la consciencia está incapacitada.

Los investigadores estudiaron el cerebro de una paciente que resultó dañado en un accidente desarrollando prosopagnosia. Midieron las respuestas (no conscientes) a caras que deberían resultarle familiares usando imágenes por resonancia magnética funcional (fMRI) y electroencefalogramas (EEG). A la paciente se le mostraron fotos de rostros populares, unos eran famosos antes del accidente y otros ganaron popularidad después, así como rostros de desconocidos. A pesar de que la paciente no pudo reconocer ninguna cara, su actividad cerebral respondió a las caras que ella habría reconocido antes del accidente.

En concreto los resultados de fMRI señalaban que las caras conocidas antes del accidente producían un incremento en la activación del giro fusiforme lateral [en rojo en la imagen] (lo que incluye el área relacionada con el reconocimiento de caras, el área facial fusiforme, AFF) así como en el giro frontal medio derecho, lo que no ocurría con las caras desconocidas. Este efecto no aparecía con las fotos de los famosos posteriores al accidente. Los resultados electrofisiológicos mostraban una discrepancia similar entre conocidos previamente y no conocidos.

Una primera conclusión es que la mera activación de la AFF no es suficiente para producir la consciencia de identidad de la persona, a la vez que se confirma que la AFF participa en la identificación de caras.

Pero la conclusión importante es que el procesamiento continúa a pesar de que haya un impedimento en la consciencia. Usando un símil (que como símil tiene sus limitaciones) la cámara sigue tomando imágenes, el ordenador las sigue procesando pero hay algo en la pantalla que impide mostrar la información procesada. En otras palabras, no es necesaria la pantalla para que el ordenador funcione, no necesitamos la consciencia para reconocer a las personas. Ni siquiera necesitamos la consciencia para tener una respuesta emocional, como demostró otro estudio con personas con prosopagnosia [2]. La consciencia es la punta del iceberg, y tendemos a sobrevalorarla.

Referencias:

[1] Simon, S., Khateb, A., Darque, A., Lazeyras, F., Mayer, E., & Pegna, A. (2011). When the brain remembers, but the patient doesn’t: Converging fMRI and EEG evidence for covert recognition in a case of prosopagnosia Cortex, 47 (7), 825-838 DOI: 10.1016/j.cortex.2010.07.009

[2] Bauer, R. (1984). Autonomic recognition of names and faces in prosopagnosia: A neuropsychological application of the guilty knowledge test Neuropsychologia, 22 (4), 457-469 DOI: 10.1016/0028-3932(84)90040-X

jueves, 14 de julio de 2011

Primera observación directa de una transición cristalográfica a nivel atómico.

Si hablamos de cambio de fase nos suele venir a la mente el paso del agua líquida a vapor o la solidificación en forma de hielo de este mismo agua. ¿Te imaginas observar el cambio de fase a nivel atómico?¿Ver cómo se mueve cada átomo? Hacerlo con el agua líquida y la velocidad de las moléculas en este estado es muy complejo, pero existen otros cambios de estado, las cambios cristalográficos, que tienen lugar en sólidos, que son más fácilmente observables. En teoría hasta ahora.

Un equipo de investigadores liderado por Haimei Zheng, del Laboratorio Nacional Berkeley de los Estados Unidos, ha conseguido observar a nivel atómico y en tiempo real por primera vez la transformación estructural del sulfuro de cobre (I) (Cu2S) con microscopia electrónica de transmisión. Aparte del aspecto puramente de logro técnico que tiene esta investigación, este tipo de cambios estructurales son muy interesantes como posible base para los discos duros de próxima generación. Los resultados se publican en Science.

Los cambios de estado son producidos por un aumento o disminución de la energía del sistema. Así, cuando un cubito de hielo se funde es porque está recibiendo energía de su entorno. Los investigadores emplearon la energía aportada por el propio microscopio al hacer la medición para provocar el cambio estructural. Pero, ¿de qué cambio estructural hablamos?

Hay dos formas de Cu2S, una a baja temperatura con estructura monoclínica (llamada calcosina baja, en la imagen que abre esta entrada) que tiene una estructura compleja con 96 átomos de cobre en la celda unidad, y otra hexagonal que es estable por encima de 104ºC. En esta estructura hay 24 átomos de cobre cristalográficamente distintos y la estructura se aproxima a un hexágono con los átomos de azufre coordinados en un plano con tres cobres. En algunos textos (y en Wikipedia) esta estructura se clasifica como ortorrómbica debido a que se tomó inicialmente la celda unidad y su gemela como unidad. Esta estructura hexagonal es la denominada calcosina alta.

Si el párrafo anterior te quedó confuso, no te preocupes. Fíjate en la imagen de abajo. A la izquierda tienes la calcosina baja, a la derecha la calcosina alta.



Los investigadores sintetizaron nanobarras de sulfuro de cobre para poder observar la transición entre calcosina baja y alta. La teoría de los cambios de fase predice que el sistema fluctuará entre las estructuras en equilibrio antes de estabilizarse. Y eso fue lo que observaron los miembros del equipo de Zheng: los átomos fluctúan entre los dos estados antes de estabilizarse en la calcosina alta. Incrementando la potencia del haz de electrones del microscopio, pudieron observar que el proceso podía acelerarse.

Otra conclusión interesante es que las transformaciones directa (baja a alta) e inversa (alta a baja) ocurren de distinta manera. En la directa, la fase alta comienza en los bordes exteriores y va hacia el interior, como en el caso de las fusiones, pero en la inversa la fase baja nuclea en el centro de la nanobarra y crece a partir de ahí. También constataron que los defectos en el cristal afectan a la forma en que tienen lugar las transformaciones.

En este video, en el que no apreciaremos gran cosa, se pueden ver los átomos tal cual durante las fluctuaciones de la transición:

video


En este otro, al anterior se le ha introducido una máscara, en verde calcosina baja, en rojo calcosina alta:


video


Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros.

Referencia:

Zheng, H., Rivest, J., Miller, T., Sadtler, B., Lindenberg, A., Toney, M., Wang, L., Kisielowski, C., & Alivisatos, A. (2011). Observation of Transient Structural-Transformation Dynamics in a Cu2S Nanorod Science, 333 (6039), 206-209 DOI: 10.1126/science.1204713

martes, 12 de julio de 2011

El caballo de Troya del plutonio.



Cuando oímos hablar del plutonio lo primero que se nos puede venir a la cabeza son los reactores o las armas nucleares, por tratarse de un subproducto de los reactores de fisión de uranio o por ser el isótopo (239Pu) empleado en “Fat boy”, la bomba que estalló sobre Nagasaki (Japón) en agosto de 1945. Sin embargo, y a pesar de que la mayoría del plutonio empleado por el hombre es sintético, se trata de un isótopo primordial, el más pesado de ellos; es decir, el plutonio estaba presente cuando se formó la Tierra y lo ha estado desde entonces. A pesar de ello, no tiene ninguna función biológica conocida y, sin embargo, el organismo sí lo acumula si lo respira o ingiere. La acumulación implica que puede entrar en las células. ¿Cómo puede un átomo tan grande sin función biológica penetrar la membrana celular? La respuesta ya la dieron los griegos: el plutonio es Ulises.

Un equipo de investigadores encabezados por Mark Jensen, del Laboratorio Nacional Argonne de los Estados Unidos, ha identificado el mecanismo por el cual el plutonio puede entrar en las células de los mamíferos. El plutonio usa la proteína responsable de llevar hierro al interior de las células en la mejor tradición homérica, como un caballo de Troya. Este resultado puede tener su utilidad para mejorar la seguridad de los trabajadores que manejen plutonio y para el desarrollo de biosistemas para la separación de los elementos radioactivos del combustible nuclear usado. Los resultados de la investigación se publican en Nature Biological Chemistry.

Los investigadores trabajaron con células de glándulas adrenales de ratas y pequeñas cantidades de plutonio para ver cómo las células acumulaban el material radioactivo. Los científicos descubrieron que el plutonio usaba la transferrina (Tf), la glicoproteína que se une reversiblemente al hierro y lo introduce en las células. Cada transferrina tiene dos dominios, N y C, cada uno de los cuales puede unirse a un átomo de hierro formando Fe2Tf. Cuando otra proteína, el receptor de transferrina, reconoce ambos dominios, permite que la molécula entre en la célula.



El plutonio puede unirse a la transferrina en ambos dominios Pu2Tf, pero en este caso el receptor no reconoce los dominios (el tamaño de ambos plutonios deforman demasiado el conjunto) y no permite el paso.

Los griegos en la guerra de Troya, cansados ya del cerco y dispuesto a retirarse derrotados, tuvieron que fiarse del ingenio de Ulises: "que piensen que nos retiramos y les dejamos como ofrenda una escultura, pero con una carga mortal; engañados así lo introducirán tras sus murallas". Pero la célula, para su desgracia, no tiene siquiera nada ni nadie que diga aquello que Virgilio puso en boca de Laocoonte “Timeo Danaos et dona ferentes”...

Los investigadores descubrieron que las estructuras mixtas, con un hierro y un plutonio, PuCFeNTf y FeCPuNTf, se parecen tanto a la proteína normal, Fe2Tf, que la célula se ve engañada y abre sus murallas al enemigo mortal.

Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros y en el Biocarnaval de Verano que alberga MarimarusBlog.

Referencia:  
Jensen, M., Gorman-Lewis, D., Aryal, B., Paunesku, T., Vogt, S., Rickert, P., Seifert, S., Lai, B., Woloschak, G., & Soderholm, L. (2011). An iron-dependent and transferrin-mediated cellular uptake pathway for plutonium Nature Chemical Biology DOI: 10.1038/nchembio.594

lunes, 11 de julio de 2011

Cómo impide el alcohol que te acuerdes de la fiesta de anoche (y no es matando neuronas).



Tras ingerir alcohol puedes realizar tareas bastante complicadas desde el punto de vista neurológico: bailar, mantener una conversación y, de forma temeraria, conducir un vehículo. Pero si sigues bebiendo es muy posible que al día posterior de la gran fiesta no recuerdes nada de lo que hiciste. El período no recordado puede ser de minutos o de horas, dependiendo de cuando se alcanzó un nivel de intoxicación suficiente para provocarlo. La leyenda urbana quiere que el alcohol destruya neuronas, pero puede que no sea tan sencillo.

Un equipo de investigadores de la Universidad Washington en San Luis (Estados Unidos) ha identificado las neuronas implicadas en estos procesos de amnesia y el mecanismo molecular que parece estar detrás de ellos. Según los resultados publicados en el Journal of Neuroscience, la exposición a grandes cantidades de alcohol no mata necesariamente las neuronas cono se venía creyendo. Lo que ocurre es que el alcohol actúa sobre unos receptores neuronales del glutamato, los llamados NMDA, que hacen que las neuronas produzcan esteroides que, a su vez, inhiben la potenciación a largo plazo (PLP), un proceso que fortalece las conexiones entre neuronas y que es crucial para el aprendizaje y la memoria. Estos resultados pueden llevar a nuevas estrategias para mejorar la memoria.

Los científicos realizaron los experimentos con neuronas del hipocampo de ratas. Cuando trataron las células del hipocampo con cantidades moderadas de alcohol la PLP no se veía afectada, pero la exposición a cantidades grandes de etanol inhibía este mecanismo de formación de la memoria. Un análisis posterior reveló que el efecto del alcohol sobre los receptores NMDA producía señales contradictorias, y esto sería lo que bloquea las señales neuronales que crean los recuerdos. De hecho, aproximadamente la mitad de los receptores NMDA se ve bloqueada por el alcohol y la otra mitad activada, lo que hace que la neurona fabrique esteroides [parte izquierda de la imagen; a la derecha neuronas sin exposición al alcohol] que impiden la plasticidad neuronal, lo que impide la PLP, lo que anula la formación de recuerdos.

Los investigadores también pudieron descartar que el alcohol matase neuronas o que las dañase de cualquier otra forma que los científicos pudiesen detectar. Incluso a los altísimos niveles de alcohol que llegaron a usarse en el estudio no se encontraron diferencias en la forma de comunicación de las neuronas aparte de las descritas más arriba. Borracho perdido (antes del coma etílico) sigues procesando información, no estás anestesiado, no estás inconsciente, pero no formas recuerdos. 

El etanol no es la única manera de causar el bloqueo en la formación de recuerdos. También el estrés de las células del hipocampo puede tener esta consecuencia, así como el consumo de ciertas drogas. La combinación de alcohol y drogas hace que la amnesia sea mucho más probable que la acción de estas sustancias por separado.

A la vista de lo anterior puede pensarse que cualquier forma de impedir la formación de los esteroides en las neuronas podría preservar la PLP. Los investigadores encontraron que esto es así. Los principios activos llamados inhibidores de la 5-alfa-reductasa, como la finasterida y dutasterida, funcionan de esta manera. Estos fármacos se emplean en la actualidad para el tratamiento de problemas de próstata, pero en el cerebro pueden tener el efecto de mejorar la memoria. La exploración de este extermo a nivel clínico puede dar lugar a un estudio interesante.

El etanol puede que no mate neuronas, pero sigue teniendo una gran cantidad de efectos perniciosos, desde adictivos y cambios de la conducta y percepción del riesgo, a daños en otros órganos del cuerpo, en especial el hígado.

Lo expresado más arriba trata de estudios con cerebros de rata en condiciones de laboratorio controladas. Cualquier extrapolación a humanos es prematura. No se automedique. Consulte siempre con su médico, solamente él puede evaluar su situación concreta y decidir qué es lo más conveniente para su caso.

Referencia:

Tokuda K, Izumi Y, & Zorumski CF (2011). Ethanol Enhances Neurosteroidogenesis in Hippocampal Pyramidal Neurons by Paradoxical NMDA Receptor Activation. The Journal of neuroscience : the official journal of the Society for Neuroscience, 31 (27), 9905-9 PMID: 21734282

domingo, 10 de julio de 2011

Químicos Modernos: Katharine Blodgett, más allá del agua de fregar (con Irving Langmuir).



Las circunstancias que rodearon la concesión del primer doctorado en física a una mujer por la Universidad de Cambridge fueron excepcionales. En primer lugar la receptora era una americana del estado de Nueva York. En segundo, no fue una estudiante al uso, aquella mujer llevaba seis años trabajando en un laboratorio de una empresa como colaboradora científica de un investigador de primer nivel. En tercer lugar, esto se notó en su tesis, completamente experimental (sobre el comportamiento de los electrones en el vapor de mercurio ionizado) pero en la que sólo empleó dos años. Finalmente, de todas las posibilidades a su disposición, el gigantesco Ernest Rutherford en persona había aceptado ser su director. Pero la más excepcional de todas fue su protagonista, Katharine Burr Blodgett.

Katharine (que no Catherine o Katherine) Blodgett nació en Schenectady (Nueva York) en 1898, y su padre, que murió asesinado poco antes de nacer ella, fue jefe del departamento de patentes de General Electric (GE), donde dejó buenos amigos. La compañía se hizo cargo de la seguridad financiera de la familia. Tras la muerte del padre, la familia se mudó a Francia, donde Katharine aprendió a hablar francés con fluidez, pero volvió a los Estados Unidos para establecerse en la ciudad de Nueva York. En ésta Katharine tuvo la oportunidad de asistir al colegio Rayson, donde recibió la misma formación que los varones, algo nada común en la época. En el colegio destacó en física, química y matemáticas, haciendo gala de una creatividad a la hora de resolver problemas poco común. Su capacidad le valió una beca para el Bryn Mawr College, una institución universitaria para mujeres, en la que ingresó con 15 años.

En las vacaciones de Navidad de su último curso en Bryn Mawr, Katharine ya tenía claro que quería dedicarse a la ciencia aplicada. A través de los amigos de su padre consiguió que le permitiesen visitar los laboratorios de GE en su ciudad natal, Schenectady. Allí le presentaron la joven de dieciocho años a Irving Langmuir para explorar la posibilidad de que pudiese trabajar en el laboratorio una vez acabados sus estudios. Tras recorrer las instalaciones con Langmuir, a éste le quedaron claras dos cosas: que Katharine era un diamante en bruto y que necesitaba pulirse. La formación que estaba recibiendo en Bryn Mawr era demasiado generalista, por lo que Langmuir le recomendó que ampliase su formación científica. Cuando lo hiciese tendría un puesto en el laboratorio.

Katharine se matriculó en la Universidad de Chicago para un máster en física en el que se centró en las capacidades de adsorción del carbón en las máscaras de gas. La elección del tema no fue baladí: la I Guerra Mundial estaba haciendo un uso masivo de los gases como arma y Langmuir estaba investigando este mismo tema en los laboratorios de GE. Tras obtener su título, en 1918, con 20 años, Katharine se convertía en la primera mujer en trabajar en un laboratorio de investigación de GE, y lo hacía en calidad de ayudante de Langmuir.

En el momento de su incorporación Langmuir estaba desarrollando un método para producir películas monocapa de aceites sobre agua. Para ello estaba mejorando un equipo muy sencillo que había construido una tal Agnes Pockels en Alemania. Si bien las investigaciones de Langmuir tocaron muchos temas de química física, fueron sus trabajos en la química de superficies los que le granjearon el premio Nobel de química de 1932. Langmuir desarrolló un nuevo concepto de adsorción (la adhesión de los átomos o las moléculas a una superficie) y uno de las claves de esta idea está en su descubrimiento de que las capas de adsorbato (la sustancia que se adsorbe) son monomoleculares. La capacidad inventiva de Blodgett llevó a que las ideas de Langmuir, con los refinamientos de N.K. Adam, y el diseño preliminar de Pockels fructificaran en la creación de la balanza de Langmuir-Blodgett, que Katharine iría perfeccionando hasta darle su forma definitiva en 1935.

Tras 6 años de colaboración, Langmuir y Katharine pensaron que la ayudante estaba más que preparada para dar el paso definitivo en su carrera, conseguir un doctorado y trabajar en otro laboratorio de primer nivel. Langmuir usó sus contactos e influencias para que Ernest Rutherford conociese a Katharine. Rutherford la admitió en el Laboratorio Cavendish de la Universidad de Cambridge en 1924, lo que se traduciría en que Katharine pasase a ser la doctora Blodgett en 1926.

Con la experiencia que Katharine había obtenido en Cambridge sobre el comportamiento de los gases ionizados, Langmuir y ella se pusieron a trabajar en más perfeccionamientos para la bombilla con filamento de wolframio, que Langmuir ya había contribuido a mejorar. Sus estudios sobre las descargas eléctricas en los gases ayudaron a crear los cimientos de la física de plasmas, el cuarto estado de la materia.

Pero Blodgett, cada vez más independiente de Langmuir, volvería a trabajar con las películas monocapa, en esta ocasión para crear películas más gruesas, monocapa a monocapa. En una de las aplicaciones prácticas de su trabajo, Katharine inventaría el cristal no reflectante en 1939 construyendo una película de 44 moléculas de espesor de estearato de bario, un tipo de jabón, sobre el cristal. A esa profundidad concreta la reflexión de la película neutraliza la reflexión del cristal, ya que las crestas y los valles de las ondas son opuestas y se cancelan unas a otras. Un refinamiento de esta técnica es la que se aplica hoy día en las lentes antirreflectantes.

Katharine también desarrolló un método sencillo y preciso para medir el espesor de una capa de película. Se dio cuenta de que las pompas de jabón tienen colores variables y descubrió que cada lugar de la pompa con un color diferente tenía un espesor diferente y comprobó que existía una correlación: un espesor de recubrimiento correspondía a un color. Hasta su invento los mejores instrumentos no podían medir más allá de la micra (milésima de milímetro). La regla de cristal que mostraba la correspondencia entre color y espesor en capas moleculares redujo este problema al de encontrar el color que se ajustaba a la muestra.

El estallido de la II Guerra Mundial hizo que el laboratorio de GE se volcase de nuevo en asuntos militares. De esta época son sus adsorbentes de gases venenosos o un método para quitar el hielo de las alas de los aviones.

Katherine registró ocho patentes durante su carrera, seis de ellas como única autora y en las otras dos como autora principal. Publicó relativamente poco, 30 artículos, pero hemos de ser conscientes de que trabajó en el laboratorio de GE toda su vida, por lo que buena parte de su trabajo fue de consumo interno. A pesar de ello colaboró de forma muy significativa en establecer la química de superficies como una rama consolidada de la química física y al lanzamiento de la física de plasmas.

Si bien nunca llegó a los niveles de Irving Langmuir en cuanto a reconocimiento público, Katharine Blodgett recibió numerosos premios durante su vida. Murió en Schenectady en 1979.

Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que acoge Divagaciones de una investigadora en apuros.




viernes, 8 de julio de 2011

El sexo reduce la variabilidad genética.



El sexo actúa como una restricción a la variabilidad genómica y epigenética, limitando por tanto la evolución adaptativa. Las distintas razones por las que el sexo reduciría la variabilidad genética (especialmente a nivel genómico) y ralentizaría la evolución serían las mismas que justificarían los altos costes de la reproducción sexual. Esta es la sorprendente conclusión de una revisión publicada en Evolution por Root Gorelick, de la Universidad Carleton (Canadá), y Henry Heng, de la Universidad Estatal Wayne (Estados Unidos).

Todos los que hemos estudiado algún curso de biología hemos aprendido que la reproducción sexual es el principal mecanismo que promueva la variabilidad genética. Gorelick y Heng proponen ahora que, si bien la diversidad puede ser resultado de una combinación de genes, la función primaria del sexo no sería promover la diversidad. El objeto del sexo, según los autores, sería mantener el contexto genómico (la colección completa de genes de un organismo ordenada por composición y localización cromosómicas) lo más inalterado posible, manteniendo la identidad de la especie.

La tesis de los autores surge de la constatación de que la hipótesis en la que se basa la vigente teoría de la variabilidad ligada al sexo no es completamente correcta. Si el sexo tuviese como objeto simplemente incrementar la variabilidad genética no habría evolucionado, argumentan los autores. Esto sería así porque la reproducción asexual, en la que solamente es necesario un progenitor para procrear, llevaría a tasas más altas de variabilidad genética que la sexual. La percepción tradicional de la reproducción asexual es que genera descendencia prácticamente clónica del progenitor, mientras que la reproducción sexual es la que lleva a descendencia más diversa. Pero, según concluyen los autores, sería exactamente al revés. Y no sólo eso, la reproducción asexual sería dos veces más eficiente que la reproducción sexual.

De hecho, hace dos mil millones de años la vida se basaba exclusivamente en reproducción asexual, y cada organismo era capaz de tener descendencia sin incurrir en los costes que acarrea la competencia por conseguir pareja. Siendo las especies asexuales más rápidas y eficientes a la hora de reproducirse, el origen y mantenimiento del sexo, no exactamente el medio más eficiente de reproducción, debe tener algún tipo de justificación.

Hasta ahora la explicación a la aparición del sexo es que permitía por un lado la mezcla y por otro la purificación de genes. Según Gorelick y Heng, la ventaja oculta del sexo sobre la reproducción asexual sería que restringe la macroevolución (la evolución a nivel genómico) para permitir la supervivencia de la especie. En otras palabras, impediría que la especie A se transformase en la especie B, permitiendo al mismo tiempo la microevolución (la evolución a nivel de gen) como forma de adaptación al medio.

Los autores terminan su artículo argumentando que la investigación futura debería centrarse en el genoma, y no sólo en los genes individuales, ya que el genoma serviría tanto como unidad de información genética y unidad de selección para la evolución.

Referencia:

Gorelick, R., & Heng, H. (2011). SEX REDUCES GENETIC VARIATION: A MULTIDISCIPLINARY REVIEW Evolution, 65 (4), 1088-1098 DOI: 10.1111/j.1558-5646.2010.01173.x

jueves, 7 de julio de 2011

Amazings.es: Del relativismo al cientificismo.


Si hiciésemos una encuesta sobre quien es el pensador que más ha influido en la sociedad actual aparecerían muchos nombres. Probablemente entre ellos no estaría Protágoras, un sofista del siglo V a.C. y, sin embargo, una de sus ideas centrales parecen permear amplios estratos de la sociedad que afirma sin rubor “es que esto es verdad para mí”. Protágoras es el padre del relativismo; su famosa máxima “el hombre es la medida de todas las cosas”, tantas veces citada fuera de contexto, viene a resumir su pensamiento de que las apariencias de las cosas percibidas por una persona y sus creencias son la verdad para esa persona. Protágoras intenta eliminar la objetividad y, ya puestos, la Verdad, con mayúsculas.
El relativismo ha tenido sus defensores a lo largo de los siglos, y uno bien notable en el siglo XX fue Paul Feyerabend, un filósofo de la ciencia. Hoy día podemos encontrar su influencia en el pensamiento meditado o regurgitado de muchas personas y es fuente de división entre las dos culturas de las que hablaba C.P. Snow.
El auge de las pseudociencias, el pensamiento mágico, culturas new age y el desprecio y alarde de desconocimiento de la ciencia por parte de la clase dirigente y buena parte de los llamados intelectuales hunde sus raíces en esta actitud (pues es actitud, ya que no resiste el mínimo análisis racional).
Sigue leyendo en Amazings.es