lunes, 28 de febrero de 2011

El otro discurso del rey: la ciencia de la tartamudez.



Los recientes Premios de la Academia (Oscars) a la película “El discurso del rey” (The King's Speech) nos van a servir de excusa para repasar, sin ánimo de ser exhaustivos, el estado de la cuestión en lo que se refiere a la tartamudez, lo que a su vez nos permitirá comprobar (por si alguien lo dudaba) que lo que funciona en las películas no tiene por qué tener relación alguna con la realidad.

A lo largo de la historia se ha atribuido la tartamudez a muchas causas diferentes. Galeno decía que era consecuencia de una sequedad de la lengua. En el siglo XVII, Francis Bacon decía que era consecuencia de una rigidez de la lengua. En el siglo XIX, los cirujanos sugerían que se debía a una lengua demasiado larga. En el siglo XX irrumpen las explicaciones “psicológicas”, desde una desatención por parte de los padres hasta una necesidad no saciada de sexo oral (“El discurso del rey” resalta el aspecto psicológico). Los remedios propuestos, obviamente, han sido igual de variados. Galeno pensaba que era necesario envolver la lengua en una tela empapada en zumo de lechuga. Bacon recomendaba la ingesta de vino. Los cirujanos del XIX afirmaban que era necesario usar el bisturí. Los psiquiatras, el diván. Pero ninguno de estos remedios funciona (excepto en las películas).

El uso de la tomografía por emisión de positrones y las imágenes por resonancia magnética funcional [1][2] ha puesto de manifiesto que aquellas partes del cerebro que suelen asociarse a la producción del habla están más activas en los tartamudos que en lo que no lo son, mientras que aquellas otras relacionadas con las percepción de los sonidos lo están menos. Además, los dos tipos de cerebro tienen un aspecto diferente. Los tartamudos parecen tener una materia gris más densa en las áreas asociadas con el procesamiento y la producción de sonidos. Pero unas diferencias así deben tener causas más profundas.

Y muy probablemente esas causas sean mayoritariamente genéticas. Los estudios con gemelos ponen de manifiesto que la disfemia (otro nombre para la tartamudez) tiene un componente genético mayor que los conocidos para el colesterol alto y la osteoporosis, por ejemplo. Al menos dos estudios con niños adoptados sugieren que aquellos cuyos padres adoptivos tartamudean no tienen más probabilidad de desarrollar disfemia que aquellos adoptados por no-tartamudos.

Para descubrir qué genes podrían estar implicados un reciente estudio [3] se centró en 44 familias pakistaníes. Los matrimonios entre primos es bastante común en Pakistán, y esta endogamia lleva a una alta incidencia de las afecciones de origen genético. El análisis sugiere que la disfemia está asociada a una mutación del gen GNPTAB, un dato que después fue confirmado cuando la misma mutación fue descubierta en un grupo de tartamudos procedentes de familias no relacionadas con las anteriores de origen pakistaní e hindú. Investigaciones posteriores [4] han puesto de manifiesto que esta mutación ocurrió hace 572 generaciones en un ancestro común, que habría vivido hace 14.000 años.

Existen además otros dos genes , GNPTG y NAGPA, que se encuentran en personas que tartamudean pero no en no-tartamudos. Los tres genes afectados codifican enzimas que regulan los lisosomas, las unidades de gestión de desechos de las células. Dos de las mutaciones también aparecen como causa de una rara enfermedad llamada mucolipidosis. La mucolipidosis severa es mortal en los primeros diez años de vida. Incluso la forma más leve tiene síntomas graves: desarrollo anormal del esqueleto y, algunas veces, un ligero retraso mental.

Sin embargo, no se aprecian síntomas de mucolipidosis en los tartamudos. Una explicación sería que ambas afecciones estarían relacionadas con un plegamiento inadecuado de las enzimas en cuestión (el plegamiento es crítico en cualquier proteína para que cumpla correctamente su función), pero que los detalles de esa inadecuación del plegamiento serían diferentes. Una hipótesis sería pues que un grupo específico de células cerebrales implicadas en la producción del habla sería selectivamente sensible, por una razón desconocida, a ese sutil fallo enzimático, produciendo, quizás, los patrones que se ven en los escáneres de los que hablábamos más arriba.

Hoy día existen varios grupos trabajando en los detalles de las causas de la disfemia. Esperemos que sus hallazgos permitan obtener tratamientos que sean más efectivos que el zumo de lechuga o el vino. Lo demás, son películas.

Referencias:

[1]

Beal DS, Quraan MA, Cheyne DO, Taylor MJ, Gracco VL, & De Nil LF (2011). Speech-induced suppression of evoked auditory fields in children who stutter. NeuroImage, 54 (4), 2994-3003 PMID: 21095231

[2]

Beal DS, Cheyne DO, Gracco VL, Quraan MA, Taylor MJ, & De Nil LF (2010). Auditory evoked fields to vocalization during passive listening and active generation in adults who stutter. NeuroImage, 52 (4), 1645-53 PMID: 20452437

[3]

Kang C, Riazuddin S, Mundorff J, Krasnewich D, Friedman P, Mullikin JC, & Drayna D (2010). Mutations in the lysosomal enzyme-targeting pathway and persistent stuttering. The New England journal of medicine, 362 (8), 677-85 PMID: 20147709

[4]

Fedyna A, Drayna D, & Kang C (2011). Characterization of a mutation commonly associated with persistent stuttering: evidence for a founder mutation. Journal of human genetics, 56 (1), 80-2 PMID: 20944643

viernes, 25 de febrero de 2011

Reivindicación de la alquimia.



En determinadas universidades, en general las más antiguas, es todavía común que los estudiantes y profesores de disciplinas que no requieren más que un montón de libros, sus cerebros y algo con lo que escribir miren por encima del hombro a esos pobres diablos que se pasean con una bata blanca. Estos “intelectuales”, investigadores del humo inútil y la palabrería vacua, en ningún momento piensan en trabajar con sus manos en su búsqueda de su, por otra parte, conocimiento onanista. Esta forma de pensar también era común en los siglos XVII y XVIII y es una de las razones por las que la palabra “alquimista” se asocia con “charlatán”.

La alquimia, al menos la alquimia hasta el siglo XVII que es a la que nos referiremos a partir de ahora , debe ser rehabilitada y no confundirse con los que hoy día abusan de ese nombre. La mayor parte de los alquimistas eran personas que buscaban honestamente el conocimiento y que trabajaban con teorías bien construidas (aunque se basaran en principios incorrectos). La revisión de la historia de la alquimia puede ser un recordatorio a los científicos actuales de que incluso sus teorías más queridas deben ser tratadas con escepticismo de forma permanente. Efectivamente, una de las cosas que los alquimistas descubrieron es que es demasiado fácil ver en tus resultados lo que quieres ver más que lo que verdaderamente ha ocurrido.

Las raíces de la alquimia se hunden en el Egipto helenista. Se componía de una mezcla de conocimiento práctico de cosas como metalurgia, farmacia y fabricación de vidrio y cerámica con la costumbre griega de analizar y teorizar sobre el mundo (vulgo, filosofía). Estas ideas herméticas (Hermes era el fundador legendario de la alquimia) fueron recogidas y desarrolladas por estudiosos árabes (chiíes en su mayoría) tras la caída de Egipto ante la expansión (militar) del Islam del siglo VII, y transmitida a Europa durante la recuperación escolástica del conocimiento del siglo XII.

Durante los cinco siglos siguientes la actividad de los alquimistas, aunque estuviese mezclada con la filosofía, no era lo suficientemente filosófica para los intelectuales que estaban creando la red de universidades que a partir de Bolonia se expandió primero a París, Salamanca, Oxford y de ahí al resto del mundo. Aunque proporcionaba beneficios prácticos, e incluso atrajo la atención de académicos eminentes como Alberto Magno y Tomás de Aquino, la alquimia no fue admitida en los planes de estudio.

Además, el fin más famoso perseguido por los alquimistas, la chrysopoeia (la transmutación de los metales en oro), era vista con una mezcla de avaricia y terror por las autoridades políticas del momento. Ese conocimiento podría traer enormes riquezas a los que lo tuviesen, pero también tenía la capacidad de destruir lo que hoy llamaríamos la divisa. Muchos países aprobaron leyes prohibiendo la transmutación de los metales, incluso cuando sus reyes secretamente financiaban a alquimistas con la esperanza de adelantarse a otros monarcas.

Y así hubiese continuado si no hubiese sido por la revolución científica del XVII. Así, Robert Boyle, un inglés rico y con una excelente red de contactos, estaba interesado en la alquimia pero le avergonzaba este interés. En un ensayo escrito en 1663 se disculpaba por su curiosidad por este “estudio vacío, vano y engañoso”. El caballero holandés Herman Boerhaave, un famoso erudito nacido en 1668, se enfrentó a sus colegas que tachaban su interés por la alquimia como “vulgar”. Para distinguirse del tibio de Boyle y de los alquimistas que sólo buscaban el oro, pero apoyándose en un libro del mismo Boyle de 1661*, “The Sceptical Chymist”, Boerhaave y otros caballeros-científicos dieron en autodenominarse “chymists”.

En las décadas siguientes los “chymicos” de Inglaterra, Francia y otros lugares empezaron a distanciarse de forma deliberada de los alquimistas, refiriéndose a ellos mismos como intelectuales, a los alquimistas como charlatanes, y a las dos actividades como diferentes. No nos confundamos, los chymicos no pensaban que la teoría alquímica estuviese equivocada. No se ha encontrado ningún documento de la época que intente refutar la idea de la transmutación de los metales, y algunos chymicos respetables todavía estaba buscando el secreto de la chrysopoeia en 1760. Era simplemente que los chymicos no pensaban que la alquimia fuese una actividad respetable. Fue quizás este alejamiento el que permitió que la “chymica” entrase en el mundo académico, por la puerta de atrás y con muchos arrugando la nariz. Los chymicos lo consiguieron teniendo razón donde la alquimia estaba equivocada.

El verdadero problema de la alquimia, tal y como señala el título del libro de Boyle, no es que fuese de clase baja y no respetable, sino que no era lo suficientemente escéptica. Las teorías alquímicas no eran, por así decirlo, estúpidas. Por ejemplo, las menas de plomo o cobre contienen habitualmente plata y la mena de plata oro, de ahí la idea de que el plomo “madura” en plata, y la plata en oro merezca la pena de ser considerada. Los alquimistas también descubrieron algunos elementos, como el fósforo. Pero al final, demasiados alquimistas fueron incapaces de desprenderse de sus preconcepciones, ni siquiera con el avance del conocimiento experimental.

Mucho de ese inmovilismo tenía su origen en el prejuicio a la hora de interpretar los resultados experimentales. Por ejemplo, imaginemos que un alquimista seguía las instrucciones de George Starkey (contemporáneo de Boyle) para la preparación del mercurio filosofal, un ingrediente crucial de la Piedra Filosofal que es la que maduraría el plomo en oro. La teoría alquímica estaba plagada de referencias botánicas: maduración, crecimiento, siembra. Nuestro alquimista, al preparar lo que hoy llamaríamos una amalgama de mercurio, oro y una pequeña cantidad de antimonio, según el método de Starkey se encontraría con un fenómeno extraño y maravilloso: al solidificar el compuesto, crecería formando una especie de árbol. Para alguien que tiene en la cabeza que la transmutación se parece a un proceso vegetal, esa estructura sería vista como una estupenda confirmación de que está en el camino correcto y de que la Piedra Filosofal está a la vuelta de la esquina.

Lo que de verdad estaba a la vuelta de la esquina era el oprobio y la burla por parte de los chymicos conforme el conocimiento científico iba siendo capaz de dar una explicación plausible a esos fenómenos diferente del dogma alquimista. Pero no hay vergüenza en el error honesto. Aquellos que creían antes de Copérnico que el Sol giraba alrededor de la Tierra no son considerados charlatanes, aunque los religiosos que intentaron parar la propagación de la idea sin atender a razonamientos merezcan estar en el purgatorio de la inteligencia. Los precopernicanos simplemente estaban equivocados, no es que fuesen tontos, al igual que muchas teorías actuales terminarán resultando incompletas, inexactas o completamente erróneas.

En este Año Internacional de la Química es hora ya de rehabilitar a los alquimistas. No estaban en lo cierto, pero se equivocaron de maneras muy interesantes.

*Boyle está considerado por algunos como el padre de la química moderna. No seré yo uno de ellos. Creo que es evidente que ese título le queda muy grande.

[Este texto se basa en algunas ideas presentadas en la intervención de Lawrence Principe, de la Universidad Johns Hopkins (Estados Unidos), en la reunión de la AAAS]

Esta entrada participa en la II Edición del Carnaval de Química que este mes organiza El Busto de Palas.

jueves, 24 de febrero de 2011

Lógica temporal: la inteligencia de las futuras sondas espaciales.



Es un pequeño paso para la capacidad de cálculo pero un gran salto para los robots “inteligentes”. Un grupo de ingenieros de la Universidad de Southampton (Reino Unido), encabezado por Sandor Veres, ha desarrollado un método para equipar (en principio) las naves espaciales y los satélites con capacidades de razonamiento casi humanas, lo que les permitiría tomar decisiones importantes por sí mismos. El nuevo sistema de control, denominado Sysbrain, permitirá programar los vehículos espaciales en lenguaje natural para que eviten accidentes, arreglen sus fallos, y puede que hasta para que salven la Tierra del impacto de un asteroide, y todo sin que los humanos los guíen paso a paso.

El nuevo sistema se está probando actualmente en el laboratorio usando un grupo de satélites modelo que operan en un entorno que simula las condiciones del espacio. Los modelos “se dan cuenta” de su entorno, pueden prever el futuro probable, realizar planes de actuación y ejecutarlos. Al que esto escribe esto le parece más cercano (por alejado que pueda estar) al razonamiento humano que la capacidad de encontrar una pregunta a una respuesta tirando de bases de datos a gran escala, como hace Watson.

Vamos a explicar un poco en detalle en que se diferencia el funcionamiento de estos sistemas de una instrucción de un videojuego del estilo “si pasa por aquí entonces este soldado sale de aquí y el otro dispara así”. A través de sus sensores el vehículo observa continuamente su entorno, por ejemplo la posición de otros vehículos. El sistema proyecta continuamente sus visión del estado del mundo en cada momento hacia el futuro cercano y “deduce” afirmaciones acerca de lo que está pasando, por ejemplo “ese satélite está en ruta de colisión conmigo”. De la misma forma que los robots de Asimov tenían una serie de leyes grabadas a fuego que no podían violar, estos sistemas tienen preprogramadas unas reglas de comportamiento, por ejemplo “evita colisiones” (los humanos también las tenemos, pero las llamamos instintos). A partir de aquí hacen uso de la inferencia lógica para decidir qué acción tomar.

La capacidad de las máquinas de pensar lógicamente viene de un sistema matemático llamado lógica temporal, cuyas raíces se hunden en el siglo X y las matemáticas persas. Al igual que otros sistemas lógicos, la lógica temporal proporciona un marco en el que representar afirmaciones sobre el mundo en un lenguaje formal y establece reglas de inferencia lógica que pueden ser implementadas en un ordenador. Por ejemplo, si sabemos que una afirmación P (“algo se mueve hacia mi”) implica la consecuencia Q (“habrá una colisión”), entonces si observamos que la afirmación P es cierta realmente, podemos inmediatamente deducir que la afirmación Q también lo es. La lógica temporal tiene la característica añadida de ser capaz de enfrentarse con afirmaciones que pueden cambiar con el tiempo: así, en sistemas más simples la afirmación “algo se mueve hacia mi” o es verdadera o es falsa pero, en lógica temporal, el valor de verdad puede cambiar con el tiempo, dependiendo de otros factores. Esto permite a la máquina explorar secuencias de acontecimientos y las implicaciones de cualquier curso de acción que pueda decidir tomar.

La prevención de colisiones es sólo un ejemplo sencillo de lo que Sysbrain puede permitir que las máquinas hagan. Otro ejemplo en el que están trabajando los técnicos es el caso en el que uno de los impulsores de la nave falle. El sistema detectaría el problema y reconfiguraría sus controles antes de que pudiese ocurrir algo más grave. El sistema lo haría muchísimo más rápido de lo que lo podría hacer cualquier humano, usando una ínfima parte de su capacidad de procesamiento.

Pero la velocidad no es la única ventaja para una nave espacial que puede tomar sus propias decisiones. Cuando una nave está lejos de la Tierra la comunicación con el centro de control tiene un retardo, lo que una misión compleja no puede permitirse. Imaginemos que se desarrollan naves para evitar que los asteroides de determinado tamaño impacten con la Tierra. Si una de ellas operara en las proximidades de Marte y detectase un asteroide rumbo a la Tierra, la alerta tardaría de 8 a 23 minutos sólo en llegar al centro de control; el personal del centro tiene que recibir, comprender, evaluar las opciones posibles, decidir qué hacer y emitir un mensaje que tardará otros de 8 a 23 minutos en llegar a la nave. No es operativo. Una misión como esa sería compleja: seguir el curso del asteroide, contactarlo y obligarlo a cambiar rumbo; algo que no es imposible según ha demostrado el equipo de Veres.

Lo que hace a la nueva tecnología particularmente fácil de usar es el hecho de que usa lenguaje natural para programarla. Se usan de hecho frases en inglés simplificadas, con una estructura determinada y un vocabulario limitado, que el sistema traduce inmediatamente a lenguaje de programación de alto nivel.
Los modelos que están usando Sysbrain de momento sólo operan en el laboratorio. Habrá que probarlos en entornos más complejos antes de instalarlos en un costoso satélite o en una sonda de altísima tecnología. Por ahora el equipo ya está en conversaciones con la NASA y la ESA.

martes, 22 de febrero de 2011

¿Transferencias laterales o genomas contaminados?



Más del 20 por ciento de las secuencias genómicas de no primates de las principales bases de datos están contaminadas con ADN humano. El estudio, llevado a cabo por un equipo de la Universidad de Connecticut encabezado por Mark Longo, se publica en PLoS ONE. Este resultado vuelve a señalar la importancia tanto de las medidas de prevención de la contaminación a la hora de secuenciar genomas como del control de la contaminación potencial en los genomas tomados de las bases de datos públicas.

Hace unos días se ha formado un revuelo en distintos ámbitos científicos por la publicación de un informe en mBio en el que se afirmaba haber detectado una transferencia horizontal de genes entre los humanos y gonorrea, con las implicaciones que ello tiene desde el punto de vista evolutivo (más información aquí, aquí y aquí). ¿Podríamos estar ante un caso de contaminación de los datos por ADN humano?

La contaminación puede llegar a una secuencia genómica en varias de las fases de la secuenciación. Podría provenir de bacterias que transporte el aire y que aterricen en la muestra, o incluso fragmentos de ADN que se hayan quedado en los reactivos tras la esterilización. Pero probablemente la fuente de contaminación más común sea el propio científico. Sólo hace falta que una célula de la piel caiga en una muestra antes de la amplificación. 

Mark Longo estaba buscando secuencias conservadas en las bases de datos de genomas y encontró que, sorprendentemente, había secuencias que se repetían en distintas especies. Sin embargo, no pudo replicar los datos en el laboratorio en ningún caso, lo que sugería que los genomas de las bases de datos podían estar contaminados. Vistos los resultados, a continuación decidió comprobar todos los genomas de no primates conservados en cuatro bases de datos públicas, en concreto las ubicadas en: la Universidad de California en Santa Cruz, el GenBank del Centro Nacional para la Información Biotecnológica, el Instituto Genómico Conjunto y Ensembl (los cuatro centros están en los Estados Unidos). Buscó específicamente secuencias repetitivas humanas conocidas como elementos AluY

De las 2.057 secuencias comprobadas, 454 contenían esta secuencia de ADN humano, el 22%, un nivel de contaminación como para preocuparse. Y esta es sólo la contaminación de fuentes humanas, ¿cuanta habrá de otras especies comunes en los laboratorios como E. coli? [Los pocos (falsos) positivos de presencia de E. coli en alimentos en el laboratorio de la empresa del que esto escribe han resultado ser contaminaciones de las muestras por manipulación inadecuada durante su toma y/o su preparación para la PCR] 

Esta frecuencia de contaminación humana hace que se hagan imprescindibles mayores controles de calidad, lo que implica recomprobaciones de secuencias para confirmar los resultados. Pero también significa mayores problemas en los estudios de las secuencias humanas: encontrar un elemento Alu humano en el genoma de un pez es fácil, encontrar una contaminación humana en una muestra humana no es tan sencillo.

Por si alguien duda de la importancia de la calidad de los datos, imaginemos que alguien tuviese que tomar decisiones sobre la salud de una persona basándose en su genoma sabiendo que tiene una probabilidad del 20% de que los resultados estén contaminados.

Referencia:

Longo, M., O'Neill, M., & O'Neill, R. (2011). Abundant Human DNA Contamination Identified in Non-Primate Genome Databases PLoS ONE, 6 (2) DOI: 10.1371/journal.pone.0016410

viernes, 18 de febrero de 2011

Los cerdos vuelan: los axones se comunican entre sí y pueden hacerlo sin estímulo inmediato.



Las neuronas son complicadas, pero el concepto funcional básico es que en las sinapsis de las dendritas y el cuerpo celular se reciben señales y los axones las transmiten a la siguiente neurona (a sus dendritas o cuerpo celular). O quizás deberíamos decir que ese era. En un estudio cuyos resultados se publican en Nature Neuroscience, un equipo encabezado por Mark Sheffield, de la Universidad Northwestern (Estados Unidos), informa de dos descubrimientos que obligarán a reescribir los libros de texto: las neuronas pueden responder a la historia de lo que les ha ocurrido integrando información y los axones pueden comunicarse a la inversa y entre sí.

El equipo de investigadores descubrió en primer lugar que las neuronas aisladas pueden disparar señales incluso en ausencia de una estimulación en el cuerpo celular o en las dendritas. Es decir, que ya no es siempre estímulo-potencial de acción inmediato (el potencial de acción es el sistema eléctrico de transmisión de señal en la neurona; son breves cambios en el voltaje de las membranas de la neurona).

Al igual que nuestra memoria de trabajo puede memorizar temporalmente un número de teléfono para usarlo un poco más tarde, la neurona puede almacenar e integrar estímulos durante un período de tiempo largo, de decenas de segundos a minutos (una eternidad en términos neuronales, donde la velocidad operacional típica se mide en milisegundos). Entonces, cuando la neurona alcanza un nivel umbral, dispara una prolongada serie de señales (potenciales de acción) incluso en ausencia de estímulo. Los investigadores llaman a esto “disparo persistente” y parece que sólo ocurre en el axón.

En concreto los investigadores estimularon interneuronas inhibidoras aisladas (provenientes del hipocampo o del córtex de ratones) durante uno o dos minutos con un estímulo cada diez segundos. Las neuronas dispararon durante este tiempo pero, cuando la estimulación cesó, las células continuaron disparando durante un minuto.

Esta función neuronal podría ser importante en procesos cerebrales habituales (la memoria, por ejemplo) y/o en enfermedades (el disparo persistente de neuronas inhibitorias podría contrarrestar estados hiperactivos del cerebro, previniendo la excitación desbocada que tiene lugar durante las crisis epilépticas).

Tras estudiar neuronas aisladas, los investigadores pasaron a investigar con grupos de neuronas, lo que deparó probablemente la sorpresa mayor: los axones se hablan entre sí. Los axones pueden realizar sus propias computaciones neuronales sin que intervengan ni el cuerpo celular ni las dendritas. Esto es lo contrario a la comunicación neuronal típica en la que el axón de una neurona está en contacto con las dendritas de otra neurona o su cuerpo celular, pero no con su axón. Y, a diferencia de las computaciones que realizan las dendritas, las que ocurren en los axones son miles de veces más lentas, lo que potencialmente crearía un medio por el que las neuronas computasen las cosas rápidas en las dendritas y las lentas en los axones.

Los axones se hablan, pero cómo funciona y hasta qué punto es generalizado este funcionamiento son nuevos misterios por descubrir. Y es que estamos sólo empezando.  

Referencia: 

Sheffield ME, Best TK, Mensh BD, Kath WL, & Spruston N (2011). Slow integration leads to persistent action potential firing in distal axons of coupled interneurons. Nature neuroscience, 14 (2), 200-7 PMID: 21150916

jueves, 17 de febrero de 2011

Químicos Modernos: la injusta fisión del átomo y la asociación Hahn-Meitner.

Dahlem, 1913



Hasta 1938 se creía que los elementos con números atómicos superiores a 92 (los elementos transuránidos) podían aparecer cuando se bombardeaban los átomos de uranio con neutrones. Fue la química Ida Noddack la que propuso en 1934 que probablemente ocurriría lo contrario. En 1938, Otto Hahn, Lise Meitner, Fritz Strassmann y Otto Frisch fueron los primeros en demostrar experimentalmente que el átomo de uranio, al ser bombardeado con neutrones, en realidad se fisiona.

Con el doctorado por la Universidad de Marburg (Alemania) en la mano y con la ilusión puesta en ser un químico industrial en una empresa internacional, Otto Hahn viajó a Inglaterra para mejorar su conocimiento del inglés. Para mantenerse mientras estudiaba encontró un trabajo de ayudante en el laboratorio de William Ramsay en el University College (Londres). Hahn sobresalió pronto por su enorme capacidad como científico experimental: su primer gran resultado fue el aislamiento de torio radiactivo. Con el gusto por la investigación básica bien arraigado, Hahn continuó su formación con Ernest Rutherford en Montreal. Finalmente volvió a su Alemania natal para unirse al instituto Emil Fischer de la Universidad de Berlín.

Hahn buscaba un colaborador con el que proseguir sus estudios sobre radioactividad experimental y terminó encontrando a Lise Meitner. Ella había ido a Berlín para asistir a las conferencias sobre física teórica de Max Planck, tras haber terminado su doctorado en la Universidad de Viena en 1905 (dirigido por Ludwig Boltzmann). En el primer año de la asociación Hahn-Meitner los investigadores tuvieron que trabajar en una carpintería en Dahlem dado que la universidad no aceptaba mujeres. En los años siguientes las cosas cambiaron bastante. Para 1912 el grupo de investigación trabajaba en el Sociedad Kaiser Wilhelm, en la que Fritz Haber era director del instituto de química física, Hahn lo era del de radioactividad y, desde 1918, Meitner era jefa del departamento de física de éste. Durante la I Guerra Mundial (1914-1918), Hahn trabajó en el servicio de armas químicas (gases) que dirigía Haber y Meitner fue enfermera voluntaria especializada en rayos X en el ejército austriaco. 

El descubrimiento del neutrón en 1932 por James Chadwick dio un nuevo impulso a los estudios sobre la radioactividad porque esta partícula atómica sin carga podía usarse con éxito para bombardear el núcleo atómico. Meitner, Hahn y un alumno de doctorado de éste, Fritz Strassmann, que trabajaba con los socios desde 1929, estaban enfocados en la identificación de los productos del bombardeo con neutrones y lo patrones de desintegración del uranio, siguiendo el trabajo que Enrico Fermi y su equipo había iniciado en 1934.

En 1938 Meitner tuvo que huir de Berlín ya que la persecución de los judíos era ya abierta. Encontró acogida en el Instituto Nobel de Estocolmo (Suecia). Su sobrino, Otto Frisch, trabajaba cerca, en el instituto de Niels Bohr en Copenhague (Dinamarca). Mientras tanto, Hahn y Strassmann se encontraban con que habían obtenido bario de forma inesperada en sus experimentos, un elemento mucho más ligero que el uranio, e informaron de ello a Meitner. En el número 47 de Angewandte Chemie (1934), Ida Tacke-Noddack (codescubridora del renio y varias veces candidata al Nobel) había escrito en contra de la opinión general: “Es concebible que cuando los núcleos pesados son bombardeados con neutrones estos núcleos puedan descomponerse en varios fragmentos bastante grandes, que son ciertamente isótopos de elementos conocidos, pero no vecinos [en la tabla periódica] de los elementos irradiados”. Meitner y Frisch hicieron cálculos teóricos usando el modelo de Bohr de “gota líquida” (1935) para el núcleo atómico y pudieron confirmar que lo que se había producido era una fisión del núcleo. Pronto quedó claro que el bario estaba entre los isótopos estables producto de la desintegración radioactiva de los elementos transuránidos que se habrían formado tras el bombardeo con neutrones del uranio. Las noticias de la fisión del átomo y sus increíbles posibilidades corrieron como la pólvora y el 2 de agosto de 1939 Albert Einstein escribía su famosa carta al presidente Roosevelt que terminaría dando origen al Proyecto Manhattan.

Hahn, Meitner y Strassmann no intervinieron en la investigación de armas nucleares durante la II Guerra Mundial. Al final de la guerra Hahn se enteraría de tres cosas que lo dejaron pasmado: que le habían concedido el premio Nobel de química de 1944, que no se lo habían concedido a Meitner y que fue el hallazgo de su equipo de 1938 el que había dado comienzo a la creación de la bomba atómica. Hahn llegó a ser director de la Sociedad Max Planck (sucesora de la Kaiser Wilhelm) y un destacado opositor al uso armamentístico de la energía atómica. Meitner se quedó en Suecia investigando. Strassmann dio origen a toda una escuela de químicos nucleares en Maguncia (Alemania). Los tres recibieron el premio Enrico Fermi en 1966.

Esta entrada es una participación de Experientia docet en los carnavales de:
- Física (XVI), organizado por Tecnoloxía
- Química (II), organizado por El busto de Palas.



miércoles, 16 de febrero de 2011

Si funciona, no lo toques





Cuando un celacanto, un tipo de pez con las aletas lobuladas y que una vez se consideró una especie intermedia en la evolución de los peces a los anfibios, apareció en las redes de unos pescadores en 1938 vivito y coleando fue una conmoción para los paleontólogos. Hasta entonces las trazas más recientes que se tenían de un animal así aparecían en rocas que databan de una época en la que los dinosaurios todavía poblaban la Tierra, hace 65 millones de años. Fue como visitar Teruel y en vez del “Torico”  toparse con un Tyrannosaurus rex dando dentelladas. Ahora está pasando lo mismo pero al revés: en vez de encontrar vivo lo que se creía que sólo era un fósil, han encontrado un fósil que es idéntico a una especie actual.

El fósil en cuestión, un espécimen de 100 millones de años de antigüedad del noreste de Brasil, pertenece al género Schizodactylus. A este genero pertenecen insectos grandes, carnívoros y con aspecto de grillo cuyos patas se extienden en todas direcciones. Los Schizodactylus actuales usan sus pies como si fueran raquetas de nieve, lo que les permite moverse por los terrenos arenosos en los que viven en busca de sus presas.

Si el nuevo fósil, cuyo estudio detallado ha sido publicado en ZooKeys por Sam Heads (INHS, Estados Unidos) y Léa Leuzinger (U. Friburgo, Suiza), fuese simplemente parecido a las insectos actuales de pies extendidos el descubrimiento no habría sido especialmente sorprendente: simplemente sería un ejemplo más de estasis evolutiva, es decir, una característica que se mantiene a lo largo del tiempo. Lo que es sorprendente es lo estático que ha sido Schizodactylus.
La estasis evolutiva es bastante común en los niveles de clase, orden y familia del sistema linneano de clasificación. Una vez que la selección natural da con un buen diseño, este diseño se adopta con pequeñas modificaciones especie tras especie. Los cuerpos acorazados de las tortugas, por ejemplo, evolucionaron hace entre 250 millones y 200 millones de años, mientras que la estructura del cuerpo de los escorpiones se mantiene desde hace más de 400 millones de años. Esto no significa que un zoólogo vaya a confundir una tortuga de 200 millones de años  o  un escorpión de 400 millones con cualquier especie viva hoy día.
Lo que es llamativo de este fósil es que es tan similar a los animales actuales que puede ser clasificado en un género actual (el nivel más bajo de clasificación linneana por encima de especie) en vez de en un grupo taxonómico superior. Esto sí que es raro de verdad. Incluso el celacanto actual, después de ser estudiado en detalle, tuvo que ser ubicado en un género diferente al de cualquier fósil conocido.

Parece evidente que la estructura del cuerpo de Schizodactylus no es que sea buena, es que es óptima, al menos para el entorno en que el animal vive.  Los desiertos arenosos en los que prefiere vivir Schizodactylus han desaparecido del noreste Brasil, pero el hallazgo de este fósil muestra mejor que ninguna otra prueba cómo era esta zona hace 100 millones de años. Pero su hallazgo ilustra perfectamente algo mucho más importante, la primera regla de la selección natural: “si funciona, no lo toques”.

Referencia:

Heads, S., & Leuzinger, L. (2011). On the placement of the Cretaceous orthopteran Brauckmannia groeningae from Brazil, with notes on the relationships of Schizodactylidae (Orthoptera, Ensifera) ZooKeys, 77 DOI: 10.3897/zookeys.77.769

martes, 15 de febrero de 2011

De ratones, vacas y desarrollo humano.


El ratón de laboratorio podría no ser el mejor modelo para estudiar las primeras fases del desarrollo embrionario. Un grupo de investigadores del Instituto de Investigación Crown AgResearch (Nueva Zelanda), encabezados por Debra Berg, ha descubierto que la especialización celular en las primeras fases del embrión es diferente en ratones y vacas, lo que indicaría que el desarrollo en los ratones no sería representativo del desarrollo en otros mamíferos, humanos incluidos. Los resultados se publican en Cell Developmental Cell. Este hallazgo pondría de manifiesto, una vez más, que el ratón no sería un modelo suficiente y que, si se quiere exactitud en el estudio del desarrollo humano, habrían de emplearse embriones humanos en la investigación.


Tras la fertilización el cigoto se divide para crear un blastocisto, una pequeña masa de células, todas sin diferenciar y capaces de desarrollarse en cualquier tipo de célula. Esta masa se divide entonces en el trofoectodermo (TE; T, en la imagen), que dará lugar a la placenta, y la masa celular interna (MCI; I, en la imagen), cuyo destino es convertirse en el organismo propiamente dicho.

Una vez que las células se especializan en uno de estos dos tipos ya no pueden cambiar al otro, incluso si se transplantan a un contexto nuevo. En el ratón el equilibrio entre dos factores de transcripción, Cdx2 y Oct4, es el que marca el destino celular. En la última fase del blastocisto del ratón el Cdx2 se localiza en el TE mientras que el Oct4, un indicador de la pluripotencia de las células, se expresa sólo en la MCI.

Pero en las vacas se encuentra que el Oct4 se expresa en todo el blastocisto, células del TE incluidas, hasta mucho más tarde en el desarrollo. Si bien pueden esperarse diferencias en el desarrollo de una vaca y en el de un ratón, lo que es llamativo es que esa diferencia sea algo tan fundamental como la expresión del factor Oct4 de las células madre.

Los investigadores identificaron una región del gen Oct4, llamada CR4, que media en su descomposición. Cuando los investigadores crearon un ratón transgénico que expresaba la región CR4 bovina, observaron la expresión más generalizada que ya habían visto en las vacas. 

Las diferencias en la expresión del Oct4 podrían ser sintomáticas de la existencia de otras discrepancias en las primeras fases del desarrollo del ratón. En la mayoría de los mamíferos el embrión “flota” libremente por el útero durante una semana antes de implantarse, pero en los ratones la implantación es muy rápida, por lo que necesitan la placenta mucho antes.

Este estudio pone de manifiesto la necesidad de estudiar el desarrollo en múltiples organismos. No existe un modelo “correcto”, cada especie es única y usa mecanismos específicos para su desarrollo. Sería ingenuo pensar que los resultados del estudio de ratones sirven para todos los mamíferos; análogamente, nunca sabremos si el de los simios difiere del humano hasta que no estudiemos el humano.

Referencia:

Berg DK, Smith CS, Pearton DJ, Wells DN, Broadhurst R, Donnison M, & Pfeffer PL (2011). Trophectoderm lineage determination in cattle. Developmental cell, 20 (2), 244-55 PMID: 21316591

lunes, 14 de febrero de 2011

Los números de César.



Sea N un número natural no primo producto de n números primos distintos,

N = p1p2p3...pn

Diremos que N es un número de César si se cumple que

p1/p2 + p2/p3 + ...+ pn-1/pn – 2(n+1)/N = 1

El primer número de César es el 30=2·3·5. Efectivamente,

2/3 + 3/5 – 8/30 = 1

Otros números de César son: 70, 286, 646, 1798, 3526, etc.

Teorema 1: Cada par de primos gemelos puede ser representado por un número de César.
Corolario del T1: Los números de César para n=3 son pares.

Teorema 2: No existen números de César para n=2.
(Las demostraciones, que son obvias, se dejan como ejercicios).

¿Se te ocurren más propiedades de los números de César?

Nota 1: La demostración de la infinitud de los números de César para n=3 resolvería la conjetura de de Polignac (para k = 2, donde p'-p=k), sin resolver desde 1849. Por si te atreves con la demostración.
Nota 2: Esta entrada es consecuencia de haber leído esta otra.
Nota 3: La expresión matemática para los números de César se me ha ocurrido esta mañana. Desconozco si ya están definidos en alguna parte.

Esta entrada es la participación de Experientia docet en la Edición 2.1 del Carnaval de matemáticas que acoge Tito Eliatron Dixit.  

viernes, 11 de febrero de 2011

Un planeta, una especie.


Se ha demostrado por primera vez que dos poblaciones polares de un microorganismo, una en el Ártico y la otra en el Antártico, comparten un acervo genético y pueden reproducirse entre sí. La especie mantendría su unicidad viajando por las corrientes del océano profundo. Los investigadores, encabezados por Graziano de Giuseppe, de la Universidad de Pisa, publican sus resultados en los Proceedings of the National Academy of Sciences.

El equipo analizó cepas de Euplotes nobilii, un protozoo ciliado cuyo nombre (“buen nadador” en griego) es especialmente adecuado. Se recogieron muestras en el Ártico y en el Antártico, tomando tres cepas de cada origen que puedieron reproducirse por conjugación, el intercamnbio directo de genes, y produjeron descendientes viables. Las cepas también compartían feromonas (las hormonas que permiten que las células se reconozcan y apareen) estructuralmente similares. [Anecdóticamnete diremos que esta estructura fue dilucidada mediante resonancia magnética nuclear por el mismísimo Kurt Wüthrich, uno de los padres de la técnica y galardonado por ello con el premio Nobel de química de 2002].

Hace tiempo que se sospecha que las corrientes oceánicas frías sirven para la difusión de la vida por el planeta y este hallazgo es una estupenda demostración. Se había especulado asímismo con la posibilidad de que el plancton y otros microorganismos de los dos polos podrían ser la misma especie basándose sólo en observaciones morfológicas y fenotípicas. Esta es la primera prueba directa de que dos poblaciones de polos distintos pueden tener fertilización cruzada y compartir acervo genético, representando una única especie.

Esta entrada es la participación de Experientia docet en el I Carnaval de Biología que organiza Micro Gaia.

Referencia:
Di Giuseppe, G., Erra, F., Dini, F., Alimenti, C., Vallesi, A., Pedrini, B., Wuthrich, K.,  Luporini, P. (2011). Antarctic and Arctic populations of the ciliate Euplotes nobilii show common pheromone-mediated cell-cell signaling and cross-mating Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1019432108

martes, 8 de febrero de 2011

Químicos Modernos: Los átomos cúbicos de G.N. Lewis



Una vez que los físicos que estudiaban la estructura del átomo comenzaron a darse cuenta de que los electrones que rodeaban el núcleo tenían una disposición especial, los químicos comenzaron a investigar cómo estas teorías se correspondían con la química conocida de los elementos y su capacidad para formar enlaces. Gilbert Newton Lewis (1875-1946) fue clave en el desarrollo de una teoría del enlace basada en el número de electrones de la capa más externa de electrones del átomo, la capa de “valencia”. En 1902, mientras estaba tratando de explicar el concepto de valencia a sus estudiantes, representó los átomos como constituidos por una serie de cubos concéntricos con electrones en cada vértice.

Este “átomo cúbico” explicaba los ocho grupos de la tabla periódica y representaba su idea de que los enlaces químicos se formaban por una transferencia electrónica para completar el conjunto de ocho electrones más externos (un “octeto”). La teoría de Lewis del enlace químico continuó evolucionando y, en 1916, publicó su artículo fundamental [*] en el que sugería que el enlace químico era un par de electrones compartidos por dos átomos. (El investigador de la General Electric Irving Langmuir elaboraría esta idea e introduciría el término enlace covalente). Para los casos en los que no se compartían los electrones, Lewis redefinió en 1923 el concepto de ácido como cualquier átomo o molécula con un octeto incompleto que era, por tanto, capaz de aceptar electrones de otro átomo; las bases eran, por consiguiente, donantes de electrones.

La contribución de Lewis también fue importante en el desarrollo de la termodinámica y en la aplicación de sus leyes a sistemas químicos reales. A finales del siglo XIX, cuando comenzó a trabajar, la ley de conservación de la energía y otras relaciones termodinámicas existían como ecuaciones aisladas. Lewis se basó en el trabajo de otro pionero de la termodinámica, Josiah Willard Gibbs (Universidad de Yale), cuyas contribuciones se estaban conociendo muy lentamente. El trabajo de ambos fue fundamental para poder predecir si una reacción avanzaría hasta casi consumir todos los reactivos, si alcanzaría un equilibrio o si no tendría lugar en absoluto, y también para determinar si una mezcla de sustancias podría ser separada por destilación.

Lewis fue educado en su casa hasta que cumplió los 14 años. Su educación posterior fue más convencional, culminando con un doctorado por la Universidad de Harvard que le dirigió Theodore Richards. Posteriormente haría la peregrinación a Alemania de los químicos y físicos que querían estar a la vanguardia de la investigación a finales del XIX y primeras décadas del XX, trabajando con Walter Nernst (U. Gotinga) y Wilhelm Ostwald (U. Leipzig). Ocupó varias posiciones académicas, las más notables en el Instituto de Tecnología de Massachusetts (EE.UU.) y en la Universidad de California en Berkeley (EE.UU.), donde amplió los programas de química e ingeniería química.  

Esta entrada es la participación de Experientia Docet en la II Edición del Carnaval de Química que organiza El busto de Palas.

Referencia:

Lewis, G. (1916). The Atom and the Molecule Journal of the American Chemical Society, 38 (4), 762-785 DOI: 10.1021/ja02261a002

lunes, 7 de febrero de 2011

El lujo de unos padres intrascendentes.





¿Hasta qué punto influyen las decisiones de los padres en el desarrollo intelectual de los hijos? La mayoría de los padres cree que incluso los actos más triviales en lo que respecta a sus pequeños, desde la elección de guardería a la permisividad o no con los videojuegos, influye profundamente en su éxito futuro. Los niños, desde esta perspectiva, serían como arcilla húmeda y los padres serían alfareros.

Y sin embargo en los tests que miden una variedad de rasgos, desde la inteligencia al autocontrol, la influencia del ambiente familiar se revela como mucho menor que la que tienen los genes o los grupos de amigos y compañeros. Los padres podemos seguir pensando que somos alfareros, pero el hecho cierto es que, desde este punto de vista, nuestra arcilla estaría prácticamente seca.

Un nuevo artículo publicado en Psychological Science sugiere que ambas metáforas (arcilla húmeda, arcilla seca) pueden ser ciertas. Cada caso particular, cada niño, se aproximaría a una u otra dependiendo del estatus socioeconómico de la familia.

El equipo encabezado por Elliot Tucker-Drob, de la Universidad de Texas en Austin (EE.UU.), estudió 750 pares de gemelos univitelinos (gemelos auténticos) y bivitelinos (mellizos) a los que se sometió a una prueba de capacidad intelectual (la versión corta del Bailey) cuando contaban con 10 meses de edad y de nuevo cuando cumplieron los 2 años. Estudiando las diferencias en los resultados entre los hermanos gemelos y los mellizos, los investigadores pudieron extraer conclusiones sobre la importancia de factores como la genética y el ambiente familiar. Dado que las parejas de hermanos provenían de todo el espectro socioeconómico también fue posible comprobar la influencia del estatus familiar en el desempeño.

En lo que respecta a la capacidad mental a los 10 meses de edad, el ambiente familiar era la variable crítica, independientemente del estatus socioeconómico. Pero los resultados de los niños de 2 años eran muy diferentes. En los niños de las familias más pobres las elecciones que hacían los padres aún se dejaban notar. De hecho, los investigadores estiman que el ambiente familiar representaba aproximadamente el 80% de la varianza individual en la capacidad mental entre los niños de 2 años: el efecto de la genética era despreciable.

El patrón opuesto aparecía en los niños de 2 años de las familias de mayor estatus socioeconómico. Para estos niños, era la genética la responsable principal de las diferencias en el rendimiento, representando cerca del 50% de toda la variación en capacidad mental ( a esta conclusión se llega porque los hermanos gemelos idénticos obtienen resultados mucho más similares que los mellizos). El ambiente familiar aparecía en un alejado segundo lugar. Para los padres la correlación parece clara: conforme aumenta el estatus socioeconómico las elecciones de los adultos juegan un papel mucho menor a la hora de determinar la capacidad mental de sus hijos.

Los niños criados en hogares de estatus socioeconómico alto disfrutan de todo aquello que el dinero puede comprar, desde juguetes interactivos a un mayor vocabulario de sus padres, pasando por una habitación acogedora y estimulante. Si bien los padres pueden discutir y preocuparse por detalles, si este juego es mejor que aquel o este papel para la pared es mejor que aquel otro, el hecho cierto es que estos detalles resultan ser mayormente insignificantes pues están sujetos a la ley de los rendimientos decrecientes. Es decir, llega un momento a partirb del cual un aumento en el nivel socioeconómico produce incrementos marginales en el rendimiento del niño cada vez menores y, al desaparecer la varianza que causa el ambiente, lo que queda es la varianza genética.

Estos resultados indican que las desigualdades en el desarrollo se asientan a una edad tremendamente temprana, de tal manera que la capacidad mental de los niños de 2 años puede ser profundamente afectada por el estatus socioeconómico de sus padres. Como resultado, su potencial genético no puede alcanzarse completamente.

Muchos estudios anteriores han puesto de manifiesto la importancia de mejorar los ambientes en la edad temprana de los niños pobres. En algunas áreas se han realizado esfuerzos por mejorar la educación preescolar, esa que empieza a los 3 años. Pero este estudio sugiere que las intervenciones han de comenzar incluso antes, actuando sobre los padres. Hay que enseñar a ser padres.

La eliminación de estas desigualdades en los primeros años de vida crearía simplemente otro tipo de desigualdad, la derivada de la genética. Pero un mundo así sería uno en el que los niños podrían alcanzar su potencial intelectual, sin restricciones derivadas de los errores o el empobrecimiento de los padres. El mayor lujo que les podemos dar a nuestros hijos es, por tanto, llegar a ser un padre completamente intrascendente.

Referencia:

Tucker-Drob, E., Rhemtulla, M., Harden, K., Turkheimer, E., & Fask, D. (2010). Emergence of a Gene x Socioeconomic Status Interaction on Infant Mental Ability Between 10 Months and 2 Years Psychological Science, 22 (1), 125-133 DOI: 10.1177/0956797610392926