lunes, 27 de febrero de 2012

Allan Jones: Un mapa del encéfalo

Allan Jones es el director general del Allen Institute of Brain Science. En esta charla, de unos 15 minutos y subtitulada en español, nos presenta el trabajo que está haciendo el instituto para poner online una herramienta gratuita que permita a los investigadores acceder a un atlas interactivo del cerebro. Pero no es un atlas normal, es un atlas que muestra qué genes se activan en cada micro-región del cerebro y cómo todo está conectado. Analizan los 25.000 genes del genoma de cada cerebro que consiguen: ¡impresionante!

Independientemente de todo lo anterior el vídeo es espectacular en lo visual. Sólo por esto ya merecería la pena verlo. Que lo disfrutéis.

[Advertencia: en los primeros 2 minutos aparece en pantalla un cerebro real fresco, es decir, con la vascularización correspondiente...con sangre, vamos. Después no vuelve a aparecer nada parecido.]


viernes, 24 de febrero de 2012

Se busca a Leibton




En La estructura algebraica del universo vimos cómo los avances matemáticos preceden en muchos casos a los descubrimientos de la física. Pero muchos casos no son todos. Ha habido momentos en la historia de la ciencia en los que la física se ha visto estancada por la inexistencia de una matemática que aglutinase, diese coherencia y despejase el camino a seguir. Eso fue lo que consiguieron Newton y Leibniz (tanto monta) con el cálculo. Hoy, la física se encuentra probablemente ante una situación similar. La diferencia con el siglo XVII es que al Leibton que encuentre la solución le espera una recompensa que va más allá de la gloria: un millón de dólares.

Uno de los mayores descubrimientos realizados en la primera mitad del siglo XX fue el comportamiento cuántico del universo. A distancias muy cortas, del orden de la molécula y menores, el comportamiento es muy diferente al del mundo clásico al que estamos acostumbrados.

Es muy común, al menos es nuestra experiencia, que se compartimentalice la teoría cuántica, que mentalmente la limitemos a lo muy pequeño como hemos hecho en el párrafo anterior. Sin embargo la teoría cuántica es fundamental, esto es, pertenece a los fundamentos, los cimientos, sobre los que se construye el universo. Esto quiere decir que gobierna no sólo lo más pequeño sino también lo “clásico”. Ello lleva implícito que tanto matemáticos como físicos hayan tenido y tengan que desarrollar métodos, no sólo para comprender los nuevos fenómenos cuánticos, sino también para reemplazar las teorías clásicas con sus análogas cuánticas.

Este proceso es a lo que se llama “cuantización”. Cuando tenemos un número finito de grados de libertad, como los que puede tener una colección finita de partículas, tenemos un mecanismo matemático muy bien desarrollado para manejar su cuantización que se llama mecánica cuántica, y eso a pesar de que el comportamiento cuántico sea muchas veces contraintuitivo.

Entonces, ¿cual es el problema? Cualquier sistema físico real tiene un número finito de partículas, ¿no? Sí, pero existen cosas que no son partículas, que no son discretas sino continuas, como los campos eléctrico y magnético, en los que el número de grados de libertad es, simple y llanamente, infinito. Esto lo han resuelto los físicos con las llamadas teorías cuánticas de campo; un avance que los matemáticos no terminan de comprender del todo.

Muchas teorías de campo se clasifican como teorías gauge. No nos interesa ahora tanto saber exactamente que es esto del gauge como entender que en estas teorías un conjunto concreto de simetrías, llamado el grupo gauge, actúa tanto sobre los campos como sobre las partículas.

Tenemos dos posibilidades entonces. La primera es que todas las simetrías conmuten; a estas teorías, para no perder las buenas costumbres matemáticas, las llamaremos teorías gauge abelianas. En este caso la cuantización se entiende razonablemente bien. Un ejemplo es la teoría del campo electromagnético, la electrodinámica cuántica, para el que la teoría funciona espectacularmente, haciendo predicciones de una gran precisión.

El primer ejemplo de teoría no abeliana que apareció históricamente fue la teoría de la interacción electrodébil, esto es, la teoría que explica las interacciones con la fuerza electrodébil, la unificación de dos de las cuatro fuerzas fundamentales del universo, el electromagnetismo y la fuerza nuclear débil. Esta teoría requiere de un mecanismo por el que las partículas predichas adquieran masa cuando las observamos. Aquí es donde entra en escena el bosón de Higgs, que parece que está a punto de confirmarse su existencia en el LHC del CERN con una masa en el entorno de los 125 GeV.

El mecanismo por el cual el bosón de Higgs aporta masa a las partículas es un mecanismo clásico que se transplanta a una teoría cuántica. Pero, ¿no estábamos cuantizando? Y ya tenemos un ejemplo estupendo de problema matemático no menor.

Para entender un poco mejor en qué consiste el problema retrocedamos hasta la distinción de teorías gauge en abelianas y no abelianas. Existe una teoría gauge no abeliana llamada Yang-Mills que se espera que describa los quarks y la fuerza nuclear fuerte, la que mantiene unidos los núcleos atómicos y en última instancia hace que el Sol produzca energía, que es la que permite la vida en la Tierra. Aquí vuelve a aparecer una contradicción entre lo cuántico y lo clásico.

La teoría clásica predice que las partículas no tendrán masa y que las fuerzas actúan a larga distancia. Se le pide a la teoría cuántica que reconcilie este “mundo clásico” con fuerzas que son de corto alcance y partículas que tienen masa. Los físicos esperan de ella además que posea varias propiedades matemáticas tales como la “diferencia de masa” (mass gap) y la “libertad asintótica”, lo que permitiría explicar la no existencia de partículas sin masa en los experimentos con interacciones fuertes.

Como estas propiedades no se ven en la teoría clásica y sólo surgen en la teoría cuántica, comprenderlas implica la necesidad de una aproximación matemática rigurosa a la teoría cuántica de Yang-Mills. No existen matemáticas para hacer esto ahora mismo, si bien admitiendo varias aproximaciones y simplificaciones puede entreverse que la teoría cuántica podría tener las propiedades deseadas.

Este problema es lo suficientemente trascendente como para que el Instituto Clay haya establecido una recompensa de un millón de dolares para el vaquero que meta las vacas en el corral, es decir, para el que establezca con rigurosidad matemática la existencia de un mass gap, la no existencia de partículas sin masa en la teoría de Yang-Mills. Ello, recordémoslo una vez más, implica abordar la teoría cuántica de campos en cuatro dimensiones para una teoría gauge no abeliana (se deja al lector como ejercicio).

Y habrá quien diga: “esto es cosa de físicos, ¿qué interés tiene esto para las matemáticas y los matemáticos?” En las últimas décadas los físicos han desarrollado métodos matemáticos para abordar la teoría cuántica de campo, en concreto las integrales de caminos, que son capaces de hacer predicciones precisas en geometría y topología, bien es cierto que con pocas dimensiones. Pero matemáticamente no sabemos qué es una integral de caminos excepto en casos muy sencillos.

Es como si estuviésemos en el siglo XVII, antes de Newton y Leibniz, usando truquitos y mnemotecnias para calcular áreas debajo de las curvas, velocidades y otras computaciones de interés físico. Análogamente hay cálculos en geometría y topología que pueden hacerse de forma no rigurosa usando métodos desarrollados por los físicos en la teoría cuántica de campos que dan las respuestas correctas. Esto sugiere que hay un conjunto de técnicas muy potentes esperando que un o una Leibton lo invente (¿o era descubra?).

Esta entrada es una participación de Experientia docet en la Edición 3.1 del Carnaval de Matemáticas que alberga Scientia potentia est

lunes, 20 de febrero de 2012

António Damásio: La búsqueda para comprender la consciencia.

António Damásio es una de las grandes figuras de la neurociencia actual. En esta charla TED de poco más de un cuarto de hora y subtitulada en español explora qué es la consciencia y el camino recorrido para intentar empezar a comprenderla. Comienza con un planteamiento muy simple: Esta mañana, al despertarnos, hemos recuperado la consciencia; pero, ¿qué es exactamente lo que hemos recuperado?

Amargos recuerdos: la presencia de un azúcar empeora la memoria a largo plazo.


Crecimiento neuronal con y sin glicosilación de la CREB. Cortesía de Rexach et al.


La formación de recuerdos y los factores que influyen en este proceso a nivel molecular es todavía, y en contra de lo que pudiera pensarse, uno de los grandes misterios de la biología. La complejidad surge de la combinación de elementos que intervienen en la transcripción de la información genética, la propia neurobiología y las señales químicas y eléctricas puestas en juego en el proceso.

Un trabajo publicado por el equipo que encabeza Jessica Rexach, del Instituto de Tecnología de California (EE.UU.), en Nature Chemical Biology es una ilustración magnífica de cómo estos factores se combinan: la modificación de una proteína clave en el desarrollo neuronal por un azúcar altera la formación de recuerdos en ratones.

La proteína de unión a los elementos de respuesta al adenosín monofosfato cíclico, más conocida como CREB (por las siglas en inglés de los acrónimos), es un regulador clave de muchos procesos neuronales. Actúa como factor de transcripción, uniéndose, como su nombre indica, a ciertas secuencias del ADN llamadas elementos de respuesta al AMPc (CRE), lo que hace que aumente o disminuya la transcripción de las proteínas codificadas por estos genes. De esta forma la CREB afecta al desarrollo cerebral, los ritmos circadianos y la memoria a largo plazo.

Hasta ahora los estudios de qué factores podían afectar al funcionamiento de la CREB se habían centrado en su modificación por fosforilación. Sin embargo, la cantidad y diversidad de funciones de la CREB hace pensar que debe haber otras formas de regulación. Una de ellas es la que han encontrado Rexach et al.

Los investigadores han descubierto que la β-N-acetil-d-glucosamina unida al oxígeno (O-GlcNAc) se puede unir a la CREB por glicosilación y que esto reduce la capacidad de formar recuerdos y, al contrario, la ausencia de este azúcar mejora la memoria. Se sabía que la O-GlcNAc tenía influencia en el desarrollo cerebral, la señalización neuronal y la neurodegeneración; ahora se ha puesto de manifiesto uno de los mecanismos por los que podría estar actuando.

La glicosilación es una reacción en la que un carbohidrato se une a un grupo hidroxilo (u otro grupo funcional) de otra molécula. Es un proceso específico del sitio de anclaje dirigido por enzimas, a diferencia de la glicación, que es inespecífica. Uno de esos carbohidratos que pueden enlazarse a otra molécula es el azúcar O-GlcNAc que lo hace a las proteínas mediante la enzima O-GlcNAc-transferasa. La unión se produce en competencia con el proceso de fosforilación, es decir, si hay glicosilación no hay fosforilación y viceversa.

Los investigadores trabajaron con ratones, en los que pudieron comprobar que la glicosilación de la CREB con O-GlcNAc reduce el crecimiento de axones y dendritas en las neuronas así como la formación de recuerdos. Si se bloquea la O-GlcNAc es al contrario. Estos mismos tres procesos se ven potenciados por la fosforilación de la CREB y reducidos por la desfosforilación. El fosfato y la O-GlcNAc trabajan como las dos posiciones de un interruptor.

Habrá, que de todo hay, quien al leer lo anterior decida que dejar de tomar glucosa es una forma de potenciar la memoria. Lo cierto es que es difícil prever en este estadio de la investigación, muy básico, si este hallazgo podrá tener aplicaciones para la mejora del estado de pacientes con problemas de memoria. Todavía es necesario saber mucho más sobre otras posibles interacciones. Por ejemplo, la fosforilación está asociada a muchos procesos cancerosos y actúa en coordinación con la O-GLcNAc como hemos visto, al igual que parece que ocurre en la diabetes no insulinodependiente.


Esta entrada es una participación de Experientia docet en la X Edición del Carnaval de Biología que en esta ocasión organiza Scientia y en la XII Edición del Carnaval de la Química que alberga Historias con mucha química (como todas).  


Referencia:

Rexach, J., Clark, P., Mason, D., Neve, R., Peters, E., & Hsieh-Wilson, L. (2012). Dynamic O-GlcNAc modification regulates CREB-mediated gene expression and memory formation Nature Chemical Biology, 8 (3), 253-261 DOI: 10.1038/nchembio.770

viernes, 17 de febrero de 2012

SOLID: detección de signos de vida en este y en otros mundos.



Hace unos meses se formó un pequeño revuelo con una entrada de este blog titulada “De por qué Curiosity no encontrará vida”. En ella argumentábamos que no la encontrará, simplemente, porque Curiosity no está diseñado para ello: este rover analizará el ambiente y su potencialidad para albergar vida ahora y en el pasado. Ahondando en este tema, en la charla que dimos en las ya famosas jornadas #MurciaDivulga, titulada “Hay o no hay metano en Marte?” [video , información] nuestra tesis fundamental fue que el problema no es que haya vida o no, el problema real es detectarla, ya que requiere de un método analítico muy específico, o de una enorme dosis de suerte.

¿Qué aspecto tendría un dispositivo para detectar vida, entonces? ¿En qué se basaría?

Para dar una posible respuesta a estas preguntas antes hemos de responder otra: ¿Qué queremos decir con un método analítico específico? Para encontrar algo debemos saber qué queremos buscar. Si yo quiero encontrar un microorganismo debo tener una idea de cual es su bioquímica. Si sé su bioquímica, sé dé qué está hecho y cual es su metabolismo y puedo desarrollar un procedimiento de manipulación de una muestra con la adición de tinciones, reactivos, variaciones de temperatura, tiempos de incubación, medios nutritivos, etc., que dé como resultado una señal inequívoca de presencia o ausencia y, en el mejor de los casos, una cuantificación de esa presencia. Si esto no es posible por cualquier motivo pero conozco su bioquímica, siempre me queda la alternativa de desarrollar métodos de detección de los productos de su metabolismo (las sustancias que excreta, como el metano) bien directamente o por su efecto en el entorno, o bien restos moleculares en general (cadáveres).

Todo esto está muy bien pero queda un poco teórico. ¿Qué se está haciendo en la práctica? Uno de los equipos más avanzados en este sentido, que está cosechando resultados espectaculares, se llama SOLID  y lo ha diseñado el Centro de Astrobiología - INTA - CSIC (España). Uno de los autores del proyecto es Víctor Parro que explica así su funcionamiento:

Multitud de biomoléculas constituyen los productos y subproductos que los microorganismos dejan en el entorno donde se desarrollan, algunas de ellas se deterioran y desaparecen con el tiempo y otras se transforman por diagénesis y se mantienen durante millones de años. La alta especificidad y sensibilidad de los anticuerpos han propiciado el desarrollo de inmunosensores desde hace varios años para la detección desde moléculas pequeñas como pesticidas, plaguicidas, etc, a microorganismos enteros. La tecnología de biochips o microarrays de anticuerpos permite ensayar simultáneamente la presencia de cientos de moléculas y células de muy diferente complejidad estructural con un mínimo preprocesado de las muestras.
El Centro de Astrobiología comenzó hace varios años el desarrollo de un instrumento (denominado SOLID, por “Signs of LIfe Detector”) para exploración planetaria basado en el concepto de microarrays. El modelo de campo (SOLID2) cuyo funcionamiento ha sido probado con éxito en varias campañas, en especial la realizada en río Tinto por el CAB y NASA en el marco del proyecto MARTE, está dotado de un  biosensor en formato microarray (LDCHIP200) con más de 200 anticuerpos diferentes desarrollados en nuestro laboratorio, y es capaz de realizar desde el preprocesado de muestras sólidas hasta la detección de las señales positivas, y todo ello de forma remota. La versión SOLID3, más compacta y ligera, incorpora importantes mejoras respecto de SOLID2.[ Fuente ]


El SOLID con el LDCHIP300, con 300 anticuerpos, obtuvo un resultado espectacular cuando detectó un oasis microbiano a dos metros de profundidad en el desierto de Atacama uno de los más secos del mundo. Las bacterias y arqueas detectadas viven sin oxígeno y en completa oscuridad en un entorno de una salinidad extrema (halita y percloratos). Si hay vida en Marte es más que probable que no esté en la superficie. Más detalles pueden encontrarse aquí 

Pero el SOLID ha seguido evolucionando. Ahora su versión 3 se enfrenta al reto de las bajísimas temperaturas de la Antártida con el LDCHIP400, con 400 anticuerpos listos para detectar prácticamente cualquier metabolito basado en carbono que pueda existir en la isla Decepción:

La isla Decepción, en la Antártida, es una isla volcánica con una historia de erupciones reciente y que ofrece diferentes escenarios extremos para la proliferación de la vida. Desde ambientes permanentemente helados, como el permafrost y los glaciares, hasta fuentes y emanaciones termales, pasando por suelos cálidos en la interfase tierra-aire o tierra-nieve (o hielo), hacen de este enclave un lugar único para el estudio de la geomicrobiología asociada.

Si durante la campaña 2009-2010 se ensayó in situ el instrumento SOLID3 con muestras superficiales y del permafrost obtenidas mediante una perforación de cuatro metros de profundidad, en la nueva campaña 2011-12 se ha actualizado el biosensor y se va a explorar un ambiente geotérmico de la isla donde la temperatura oscila entre los 0 ºC y los 100 ºC en pocos centímetros de profundidad. Se tomarán muestras superficiales y del subsuelo (de uno a dos metros de profundidad), se determinará el perfil de biomarcadores con LDCHIP400 y SOLID3.0, y los resultados se confirmarán y se completarán en el laboratorio mediante diversos estudios de ecología molecular, enriquecimiento de cultivos, geoquímica y mineralogía. [Fuente]

El SOLID quedará así listo para explorar la vida basada en carbono de Marte o Europa, por ejemplo. El problema será entonces poder enviarlo allí: la idea original era el proyecto ExoMars, pero parece que de momento tendrá que esperar.

Esta entrada es una participación de Experientia docet en la VII Edición del Carnaval de la Tecnología organizada por Zemiorka.  


jueves, 16 de febrero de 2012

Químicos Modernos: Marguerite Perey, la otra hija de Marie Curie



Marguerite había conseguido un contrato de prácticas de 3 meses en el instituto. Ella siempre había querido ser médico pero, tras la temprana muerte de su padre, la familia no había tenido recursos para ello. Con mucho esfuerzo, y la oposición de su madre, había conseguido obtener un título de técnico de laboratorio químico en la Escuela de Enseñanza Técnica Femenina . Así que aquellos tres meses de técnico de laboratorio serían lo más próximo que ella podría esperar estar de la medicina a corto plazo.

Había llegado por la mañana de su primer día dispuesta a causar la mejor de las impresiones. Casi a la vez que ella se presentó una señora muy amable y vestida con ropas de trabajo y que Marguerite tomó por la secretaria del laboratorio. No tardaría en darse cuenta de que aquella señora tan sencilla y a la que ella había tratado con tanta familiaridad era catedrática en la Sorbona, tenía dos premios Nobel y era la fundadora del Instituto del Radio.

La gran suerte de Marguerite era que había ido a dar con una persona de las verdaderamente grandes, que daban más importancia al talento que a los formalismos. Marie Curie detectó rápidamente la capacidad intelectual y la habilidad para trabajar en el laboratorio de Marguerite y no sólo la convirtió en su asistente de laboratorio personal, sino que se ocupó de formarla a pesar de que Marguerite careciese de estudios universitarios. Estarían juntas cinco años, hasta el fallecimiento de Marie en 1934.

Instituto del Radio (1931). Marguerite es la 2ª por la izquierda
En 1934 fue nombrada radioquímico del Instituto. Marguerite pasó a trabajar a las órdenes de André Debierne (el nuevo director del instituto) y de Irène Joliot-Curie que estaban interesados en el estudio del actinio. Y Marguerite floreció.

Entre 1871 y 1886 Mendeleev predijo la existencia de varios elementos en función de los huecos que quedaban en una tabla de los elementos existentes ordenados por sus propiedades periódicas. En 1917 sólo quedaban por descubrir tres de ellos, los elementos 65, 85 y 87. En 1913 John Cranston, ayudante de laboratorio de Frederick Soddy en Glasgow, se percató de que el mesotorio 2 (uno de los muchos productos de la desintegración del torio) emitía tanto partículas alfa como beta. Según la ley que el propio Soddy había creado, el elemento 87 debía producirse durante la desintegración alfa del mesotorio 2, en concreto eka-cesio-224 (eka-cesio hace referencia al nombre que Mendeleev le había dado al elemento desconocido). Serían las investigaciones de Soddy durante esta época las que desembocaron en el concepto de isótopo.

Basándose en el hallazgo de Cranston, en los años 20 varios grupos de investigación analizaron concienzudamente minerales de torio en busca del elemento 87, sin éxito. Ahora sabemos que ello se debió a que la vida media del isótopo 224 del eka-cesio es de sólo 2 minutos.

El Fr-223 en el cuaderno de Marguerite 
En 1939 (en concreto el 7 de enero) Marguerite se dio cuenta de que el actinio, que es isotópico con el mesotorio 2, también presentaba una desintegración por dos rutas. Visto desde la perspectiva actual diríamos que los isótopos 228 (llamado mesotorio 2) y 227 del actinio pueden desisntegrarse de dos maneras, alfa y beta; en la desintegración alfa el isótopo 228 da lugar a eka-cesio-224 (teorizado por Soddy) y el 227 a eka-cesio-223, con el que trabajaría Marguerite.

A diferencia del eka-cesio-224, el eka-cesio-223 tiene una vida media de 20 minutos, suficientes para que una química experta en el laboratorio lo pueda caracterizar. Marguerite descubrió que, tal y como predijo Mendeleev, se comportaba como un metal alcalino, del primer grupo de la tabla periódica. Marguerite acaba de descubrir el último elemento natural que quedaba para completar la tabla de Mendeleev de 92 elementos. En los años 40 Coryell y Segrè obtuvieron artificialmente el prometio (61) y el astato (85).

Marguerite a sus poco más de treinta años tenía un resultado equiparable al de su mentora, Marie Curie. Los miembros del instituto estaban entusiasmados con él y pensaron que lo ideal sería que Marguerite lo presentase como su tesis doctoral, tal y como Marie había hecho con el radio. El problema no sólo era que Marguerite no tuviese un título universitario, es que no tenía ni el bachillerato, requisito imprescindible para entrar en la universidad. En el Instituto decidieron apartarla de todas las tareas de laboratorio y le consiguieron una beca para que pudiese asistir a la Sorbona a estudiar. Asistió al preparatorio de medicina para poder tener acceso a una titulación superior y después a módulos de química, biología y fisiología que la universidad consideró equivalentes a una licenciatura (el caso de Marguerite fue excepcional en todos los sentidos).

Finalmente el 21 de marzo de 1946, Marguerite presentaba su tesis L'élément 87: Actinium K . Su última frase recogía el privilegio del descubridor: “El nombre Francio, Fa, se propone para el lugar 87” (hoy día el símbolo del francio es Fr).

Marguerite no consiguió el reconocimiento del Nobel, pero si abrió unas puertas que ni siquiera Marie Curie pudo abrir: en 1962 se convirtió en la primera mujer elegida miembro de la Academia de Ciencias de París. Como dijo Irène al terminar Marguerite la defensa de su tesis: “Hoy mi madre se habría sentido feliz”.

Esta entrada es una participación de Experientia docet en la XII Edición del Carnaval de la Química que organiza Historias con mucha química(como todas)



miércoles, 15 de febrero de 2012

Concurso ED: ¿Dónde está el error?



A continuación aparece una noticia sobre un artículo de investigación publicado recientemente. La noticia está copiada tal cual. Incluimos el enlace a la propia noticia y al paper, si bien éste no es necesario para resolver la cuestión que se plantea. El objetivo no es criticar a nadie sino entrenar nuestra capacidad de análisis de una forma más o menos divertida.

Sólo con la información que aparece en este texto, ¿dónde está el error?

Las personas con niveles elevados de vitaminas B, C, D y E y de ácidos grasos omega-3 en la sangre rinden más en pruebas de función ejecutiva y atención, tienen mejores habilidades visuoespaciales y muestran una mejor función cognitiva global. También tienden a poseer un mayor volumen cerebral, según un estudio publicado en la revista Neurology. 
Se midieron los niveles de más de 30 nutrientes en la sangre a 104 personas con una edad media de 87 ± 10 años (62% mujeres). Globalmente eran personas con un buen nivel educacional, no fumadoras, sin problemas de memoria y sin enfermedades crónicas. También se realizaron pruebas de resonancia magnética a 42 de los participantes para medir su volumen cerebral. Los investigadores hallaron que varios nutrientes pueden afectar distintos aspectos del pensamiento. También concluyeron que personas con altos niveles de grasas trans obtuvieron peores resultados en pruebas del pensamiento y presentaban un menor volumen cerebral.


Gallifante simbólico para los acertantes. No hay moderación de comentarios.

Solución de ED [Escrita en blanco. Selecciona para leer]:


Como bien se puede ver en los comentarios de esta entrada, es posible sacarle mucho jugo a una noticia sobre un tema científico si se la examina con detenimiento (este era uno de los objetivos no declarados del concurso).

Sin embargo, hay un error que es muy común, y no por ello menos grave, en esta noticia y que antecede a todos los demás posibles: no es posible establecer una relación de causalidad en una investigación de este tipo y, sin embargo, el tono general y alguna frase en particular afirman claramente la existencia de una relación causa-efecto direccional entre nivel de vitaminas/omega-3 (A) y funciones cognitivas (B). Esto es, la noticia favorece una de las cinco posibles explicaciones a por qué existe esa correlación cuando no hay base para hacerlo. Veamos brevemente esas posibilidades:

  1. A es causa de B
  2. B es causa de A
  3. Un factor desconocido C es la causa de A y B
  4. Una combinación de las tres posibilidades anteriores
  5. La correlación es una mera coincidencia. Una muestra mayor y/o la comprobación de posibles errores sistemáticos podrían hacerla desaparecer.

El estudio original en el que se basa la noticia, como apunta algún participante, tiene mucho cuidado en no incurrir en el error de favorecer ninguna de las explicaciones posibles. Por otra parte este trabajo aislado no tiene otra ambición que la de constatar un dato. El redactor es el que lo ha convertido en un titular.  


Muchas gracias a todos por participar. Los acertantes pueden recoger su gallifante al salir.




Referencia: 

Bowman GL, Silbert LC, Howieson D, Dodge HH, Traber MG, Frei B, Kaye JA, Shannon J, & Quinn JF (2012). Nutrient biomarker patterns, cognitive function, and MRI measures of brain aging. Neurology, 78 (4), 241-9 PMID: 22205763

martes, 14 de febrero de 2012

David contra la Superbacteria


Klebsiella pneumoniae


En diciembre de 2009 un turista sueco fue ingresado en un hospital de Nueva Dehli (India) por lo que después se diagnosticó como una infección de Klebsiella pneumoniae. Su caso no tendría mayor importancia si no fuese porque no respondía al tratamiento habitual con antibióticos. Un equipo de la Universidad de Cardiff terminaría descubriendo la causa, una enzima que bautizaron como NDM-1 (de New Delhi metallo-beta-lactamasa-1). Había sido detectada la primera cepa de esta bacteria antibiótico-resistente.

Esta enzima se suele encontrar en bacterias Gram negativas, como la propia K. Pneumoniae o Escherichia coli, aunque puede llegar a otras cepas por transferencia horizontal. Las bacterias que la producen se vuelven prácticamente inmunes a los antibióticos que las solían atacar ya que la enzima impide que los principios activos se unan a sus dianas en las paredes celulares de la bacteria. Desde su primera detección en 2009 en la India ya se ha encontrado al menos en Pakistán, Reino Unido, Estados Unidos, Canadá, Japón y Brasil. Y es una causa de preocupación creciente por la resistencia a los antibióticos que confiere a cepas bacterianas, especialmente a las Gram negativas, para las que no hay tantos antibióticos que sean eficaces.

Ahora, un equipo de investigadores encabezado por Roberta Worthington, de la Universidad Estatal de Carolina del Norte (EE.UU.), ha encontrado una pequeña molécula que restaura la capacidad bactericida de los antibióticos en bacterias Gram negativas que expresan NDM-1. Publica sus resultados en ACS Medicinal Chemistry Letters.

Una bacteria Gram negativa es una bacteria que no se tinta de azul-violeta con la tinción de Gram, sino que se tiñe de rojo-rosa, así de simple. El hecho de que no se vuelva violeta con la tinción nos dice cosas sobre cómo es la envoltura celular. De hecho la capacidad patogénica de las bacterias Gram negativas está asociada en muchos casos a ciertos componentes de las paredes celulares, en concreto, los lipopolisacáridos (LPS). En los humanos los LPS activan la respuesta del sistema inmune.

Precisamente es la estructura de la pared celular de las bacterias Gram-negativas la que hace que existan menos opciones terapéuticas para tratar las infecciones que provocan. Por ello es tan peligrosa la existencia de la NDM-1, porque neutraliza las pocas armas disponibles.

El mismo grupo al que pertenece el equipo de investigadores ya había identificado un compuesto de la familia de las 2-aminoimidazolas (2-AI) que potenciaba la acción de los antibióticos en bacterias Gram positivas antibiótico-resistentes como el Staphylococcus aureus resistente a la meticilina (MRSA, por sus siglas en inglés). Lo que han hecho ahora es una versión de este compuesto que funciona en una bacteria Gram negativa.

En conjunción con antibióticos betalactámicos tipo carbapenem, en concreto imipenem y meropenem, aumenta la eficacia de éstos 16 veces. La molécula por sí misma no tiene capacidad bactericida, simplemente neutraliza la NDM-1 permitiendo que el antibiótico haga su trabajo.



La investigación en sólo dos años está demostrando que se pueden combatir las superbacterias con estrategias diferentes a las habituales, como la honda que usó David contra el gigante Goliat. Sólo es necesario seguir desarrollando estos productos. Por otra parte, el inteligente lector se habrá dado cuenta que no damos información sobre el compuesto concreto, y es que no disponemos de ella. Esa información tiene valor comercial: cosas de invertir en I+D.

Este texto ha sido editado tras la revisión por parte del Prof. Dr. Manuel Sánchez (Universidad Miguel Hernández), @Manuel_SanchezA y autor de Curiosidades de la microbiología, por lo que le quedo muy agradecido. Cualquier error o incorrección que pueda quedar es responsabilidad exclusivamente mía.

Esta entrada es una participación de Experientia docet en la X Edición del Carnaval de Biología que en esta ocasión organiza Scientia.

Referencia:

Worthington, R., Bunders, C., Reed, C., & Melander, C. (2012). Small Molecule Suppression of Carbapenem Resistance in NDM-1 Producing Klebsiella pneumoniae ACS Medicinal Chemistry Letters DOI: 10.1021/ml200290p

domingo, 12 de febrero de 2012

Nanodinamita: energía a nanoescala.




Los avances en la elaboración de nanomáquinas ponen cada vez más de manifiesto que uno de los factores limitantes para su desarrollo es la generación de energía de forma eficiente a nanoescala, algo que el escalado de los sistemas convencionales no puede conseguir. Michael Strano, del MIT (EE.UU.), y Kourosh Kalantar-Zadeh, del RMIT (Australia) están trabajando con un dispositivo experimental basado en nanotubos que genera electricidad de una forma que no tiene equivalente macroscópico. Lo llaman nanodinamita porque usa un explosivo como fuente de energía. Lo han presentado en Spectrum.

El fundamento de la nanodinamita es contraintuitivo: Al recubrir un nanotubo con nitrocelulosa y prender un extremo se origina una onda de combustión que se transmite cuatro órdenes de magnitud más rápido de lo que lo haría en el combustible sólo. Además la onda de calor origina una corriente eléctrica.

Antes de entrar en algo más de detalle, parémonos a considerar el problema que supone la generación de energía para nanodispositivos con un par de ejemplos. En primer lugar, ¿qué nos impide seguir disminuyendo el tamaño de las baterías químicas convencionales? El principal problema está en que el rendimiento comienza a disminuir muy rápidamente cuando se reduce el tamaño de la batería a una decenas de micrometros (para que te hagas una idea el papel de aluminio de uso doméstico tiene unos 15 micrometros de espesor). Los compuestos químicos que componen la batería pueden formar agregados de tamaños significativos a esta escala lo que dificulta drásticamente el flujo de iones, reduciendo la densidad de potencia (cuantos vatios genera por kilo o, en general, por unidad de masa) de la batería.

Pensemos entonces en un sistema eficiente de almacenamiento de energía con una conversión eficiente en trabajo mecánico: los motores de cohete. Desafortunadamente no soportan bien el escalado (cambio de tamaño, manteniendo proporciones y funcionalidad). A día de hoy los motores de cohete más pequeños ven reducida su densidad de potencia a sólo 0,1 W/kg, una parte minúscula de lo que consigue una batería de ion-litio normalita de tamaño equivalente, 200 W/kg.

Volvamos entonces a la nanodinamita. La nitrocelulosa es un explosivo plástico y es capaz de almacenar grandes cantidades de energía por unidad de masa, lo que lo hace ideal para el experimento que nos ocupa. Los investigadores recubrieron nanotubos de carbono con nitrocelulosa. Cuando encendieron un extremo usando un láser (un cable caliente serviría igual) la nitrocelulosa comenzó a descomponerse (la nitrocelulosa arde incluso privada de oxígeno por la cantidad de oxidante que incorpora en su composición en forma de grupos nitro), originando una onda de calor que empezó a propagarse por el nanotubo. La onda de combustión resultante viajó por el nanotubo 10.000 veces más rápido de lo que hubiese ardido la nitrocelulosa por sí misma.

¿Cómo es esto posible? Por la excelente capacidad conductora del calor del nanotubo. Al propagarse el calor que entra en el nanotubo mucho más rápido que “dentro” de la propia nitrocelulosa, significa que va activando la nitrocelulosa conforme viaja, con lo que mucha más nitrocelulosa entra en actividad más rápidamente. ¿Pero esto no es una explosión? No, la combustión está controlada en todo momento: el nanotubo guía la descomposición de la nitrocelulosa en la superficie mientras hace que la reacción se mueva en una dirección, sirviendo de guía a la onda.

Esta onda de combustión se convierte además en una onda termoeléctrica porque transmite energía de un lugar a otro acoplándose con los portadores eléctricos del nanotubo, haciendo que se muevan a lo largo del tubo y creando con ello una corriente eléctrica muy grande en relación a la masa del sistema. Estamos hablando de densidades de potencia del orden de 7.000 W/kg, cuatro veces más que las mejores baterías ion-litio disponibles.

Si bien esta tecnología está todavía en fases muy iniciales, abre toda una nueva vía de investigación en nanoenergía.

Esta entrada es una participación de Experientia docet en la VII Edición del Carnaval de la Tecnología organizada por Zemiorka.

jueves, 9 de febrero de 2012

Un nanobot recorre el ADN controlado por luz.


Un nanorobot es capaz de moverse autónomamente controlando sólo con luz el inicio y el fin del movimiento y su velocidad. El nanobot, que es una molécula que comparte diseño estructural con una enzima del ADN a la que se han incorporado partes fotosensibles, se desplaza por una molécula de ADN basándose en la fotolisis de los enlaces disulfuro asistida por pireno, mostrando la libertad operacional y velocidad mecánica de los motores proteicos. El equipo de investigadores encabezado por Mingxu You, de la Universidad de Florida en Gainsville (EE.UU.), publica sus resultados en Angewandte Chemie [1]. Las aplicaciones podrían abarcar desde el transporte de moléculas bioactivas, hasta la síntesis de nanomateriales, pasando por el control de procesos biológicos.

El disulfuro -S-S- [quizás es más apropiado el nombre persulfuro, igual que -O-O- es peróxido, pero disulfuro es el nombre que ha quedado] es un enlace covalente fuerte, con una energía de disociación de 60 kcal/mol. Sin embargo, una cadena es tan fuerte como el más débil de sus eslabones y el disulfuro es más débil que los enlaces C-C y C-H, por lo que suele ser el enlace débil en las moléculas orgánicas en las que participa. Si a esto añadimos que el sulfuro divalente es fácilmente polarizable por agentes polares, tenemos un factor más para que sea el lugar preferente para las roturas de las moléculas que lo contienen.

En 2010 otro equipo del mismo laboratorio también encabezado por You publicó [2] el descubrimiento de que los enlaces disulfuros asociados a pireno (un hidrocarburo aromático policíclico, de esos que se obtienen por mala combustión y que se detectan en las nubes interestelares) podían ser rotos por la luz. Ésta afecta a la distribución electrónica de los electrones deslocalizados del pireno haciéndolo polar, cediendo un electrón a un azufre (S) y rompiendo el disulfuro. Esta es la base del motor del nuevo “vehículo” molecular.

Hasta ahora los vehículos moleculares sintéticos de ADN han obtenido su energía de reacciones químicas, con las limitaciones que esto conlleva. La luz ofrece la posibilidad de un nivel de control mucho mayor, permitiendo que estas nanomáquinas se puedan activar y parar a voluntad de forma remota con precisión espaciotemporal. La fotolisis de los enlaces disulfuro permite convertir, pues, la luz en movimiento controlado.

El nanobot caminante (walker) de You et al. consiste en dos patas, una larga y una corta, conectadas por un grupo pireno. El caminante se mueve por una “pista” de ADN en la que sobresalen mástiles de ADN a intervalos regulares de 7 nm; cada mástil tiene dos secciones, una corta y una larga, unidas por un enlace disulfuro.

El caminante comienza su camino enlazándose al primer mástil: la pata larga a la sección larga y la pata corta con la sección corta. Cuando la luz incide sobre la molécula, el pireno se “activa” y rompe el enlace disulfuro del mástil, haciendo que la sección corta se separe y se pierda. La pata corta del caminante busca otro sitio donde enlazarse, encontrándolo en el siguiente mástil y arrastrando consigo la pata larga.



Este proceso se repite conforme el caminante va avanzando por la pista, siempre obligado a moverse hacia delante porque las secciones cortas de atrás se van perdiendo y sólo encuentra capacidad de enlazar en las secciones cortas de los mástiles siguientes. Aparte de la dirección los investigadores pueden también controlar el movimiento del caminante regulando la intensidad de luz, cuanto mayor es ésta mayor es la velocidad, y sin luz el caminante se detiene.

Si bien teóricamente el proceso puede repetirse con una pista arbitrariamente larga, el hecho cierto es que este caminante sólo ha andado 21nm, la distancia entre cuatro mástiles. Lo siguiente será hacer caminantes más rápidos y que cambien de dirección.


Esta entrada es una participación de Experientia docet en la XII Edición del Carnaval de la Química que organiza Historias con mucha química (como todas)

Referencias:

[1] You, M., Chen, Y., Zhang, X., Liu, H., Wang, R., Wang, K., Williams, K., & Tan, W. (2012). An Autonomous and Controllable Light-Driven DNA Walking Device Angewandte Chemie International Edition DOI: 10.1002/anie.201108871

[2] You, M., Zhu, Z., Liu, H., Gulbakan, B., Han, D., Wang, R., Williams, K., & Tan, W. (2010). Pyrene-Assisted Efficient Photolysis of Disulfide Bonds in DNA-Based Molecular Engineering ACS Applied Materials & Interfaces, 2 (12), 3601-3605 DOI: 10.1021/am1007886

miércoles, 8 de febrero de 2012

Las bases neurológicas de los éxtasis religiosos



"Veíale en las manos un dardo de oro largo, y al fin del hierro me parecía tener un poco de fuego. Este me parecía meter por el corazón algunas veces, y que me llegaba a las entrañas. Al sacarle, me parecía las llevaba consigo, y me dejaba toda abrasada en amor grande de Dios. El dolor era tan fuerte que me hacia lanzar gemidos, mas esta pena excesiva estaba tan sobrepasada por la dulzura que no deseaba que terminara. El alma no se contenta ahora con nada menos que con Dios. El dolor no es corporal sino espiritual, aunque el cuerpo tiene su parte en él. Es un intercambio amoroso tan dulce el que ahora tiene lugar entre el alma y Dios, que le pido a Dios en su bondad que haga experimentarlo a cualquiera que pueda pensar que miento... "

Así describía Teresa de Ávila una de sus visiones durante un éxtasis, la que después recogería Bernini en la escultura que abre esta entrada. Las experiencias religiosas, como cualquier experiencia humana (razonamiento científico, procesos deductivos, juicio moral y creación artística) tienen un correlato neurológico. Las experiencias religiosas ictales, es decir, asociadas a un ataque epiléptico, se observan con frecuencia en síndromes de epilepsia focal que afectan al hemisferio derecho. Asimismo, dicho hemisferio desempeña un papel especial en experiencias y características de la personalidad relacionadas con lo corporal, lo emocional y los sentimientos espirituales. La sensación de la presencia de una divinidad es la marca esencial y específica de las experiencias religiosas.

El lóbulo frontal derecho es primariamente responsable de sentimientos y características de la personalidad relacionados con lo social, político y valores religiosos, pero es en el lóbulo temporal derecho donde reside la estructura crítica en la intensidad de los fenómenos religiosos.

Las manifestaciones religiosas como parte de una crisis epiléptica son raras, presentándose en el 0,3-3% de las crisis según las series. Un equipo de investigadores encabezado por Ana Besocke, del Hospital Italiano de Buenos Aires (Argentina), ha publicado el caso de una mujer de 32 años con epilepsia del lóbulo temporal farmacorresistente cuyas crisis se caracterizaban por emitir plegarias religiosas. Los detalles aparecen publicados en Revista de Neurología.

La paciente sufría crisis desde los 8 años de edad, tenían una duración de unos cuatro minutos y ocurrían mayoritariamente durante el sueño, tres o cuatro veces por mes. Durante éstas repetía continuamente plegarias religiosas.

Fue sometida a una resonancia magnética, que mostró una área caracterizada por menor tamaño de las circunvoluciones y una disminución marcada de la sustancia blanca en la región temporooccipital derecha. Un videoelectroencefalograma de superficie evidenció el inicio eléctrico de las crisis en la región temporal anterior derecha. La evaluación con electrodos intracraneales constató una área de inicio ictal en la región temporal mesial homolateral.

Tras una lobectomía temporal anterior derecha (tipo Spencer), pasó a presentar de dos a cuatro crisis parciales complejas anuales, sin síndrome religioso. En vista de lo cual los autores concluyen que el área origen de dichas manifestaciones religiosas posiblemente residía en una red neural que involucraba a estructuras temporolímbicas del hemisferio derecho.

Si bien los autores juegan a lo seguro intentando evitar polémicas, como cuando afirman “La veracidad de una percepción religiosa no se confirma ni descarta por la existencia de un correlato cerebral concomitante”, y siendo esto estrictamente cierto desde un punto de vista lógico, lo que es innegable es que su verosimilitud se ve manifiestamente disminuida.

Referencia:

Besocke AG, Baccanelli M, Cristiano E, García MC, Silva W, & Valiensi SM (2012). [Religious manifestations as ictal semiology in temporal lobe epilepsy]. Revista de neurologia, 54 (1), 61-3 PMID: 22187215

martes, 7 de febrero de 2012

Peces de pecera, hijos del vacío.



Somos hijos de una fluctuación del vacío que dio lugar al Big Bang. Nuestra relación con el conjunto del verdadero universo, que nosotros llamamos heteroverso, es la de un pez de pecera con el resto del mundo. ¿Ciencia ficción? No, sólo ciencia.

En los años 90 del siglo pasado se descubrió que el universo no sólo se está expandiendo sino que además lo hace aceleradamente (este descubrimiento fue merecedor del último premio Nobel de física). Sus constituyentes están siendo separados por una misteriosa fuerza repulsiva que viene del espacio vacío: a esto es lo que llamamos energía oscura. Esta repulsión universal puede describirse por un sólo número, la constante cosmológica (véase Einstein y...la pizarra del observatorio de Monte Wilson).

De manera poco rigurosa pero intuitiva podemos considerar la constante cosmológica como el “peso”, la energía si lo prefieres, del espacio vacío. Imaginate en esa época en la que se desconocía la existencia de los átomos y que estás en una habitación en la que se han retirado absolutamente todos los objetos: puedes creer que la habitación está vacía y que no ocurre nada; hoy, sin embargo, sabemos que hay una actividad frenética a nivel atómico. La teoría cuántica nos dice que, sorprendentemente, el espacio vacío es un enjambre de partículas virtuales apareciendo y desapareciendo de la existencia.

El comportamiento de estas partículas es descrito con una precisión extraordinaria por otra teoría: el modelo estándar de la física de partículas. Pero en cuanto hablamos de la constante cosmológica el modelo tiene problemas. Según éste el espacio vacío debería pesar mucho más de lo que sabemos que hace, y la diferencia entre modelo y datos no es pequeña: unos 120 órdenes de magnitud mayor el primero que los segundos. Una predicción terriblemente mala de una, por otra parte, estupenda teoría.

No sólo eso, el modelo estándar de la física de partículas no tiene en cuenta la gravedad. Todos los intentos que ha habido de intentar introducir la gravedad han llevado a resultados matemáticos que no tienen sentido físico. Los científicos llevan mucho tiempo intentando encontrar una “teoría del todo” que pueda acomodar tanto la teoría de partículas (y, por extensión, la cuántica) y la gravedad. Una teoría, aunque realmente habría que decir una colección de teorías, que pretende ser la solución al problema es la teoría de cuerdas. Y la teoría de cuerdas sugiere que nuestro universo no es todo lo que hay. En este punto el término multiverso es muy popular, y quizás tiene connotaciones demasiado melodramáticas, por lo que utilizaremos mejor la palabra heteroverso, por razones que serán evidentes enseguida.

El universo realmente no sería homogéneo, único, sino que podría tener regiones en las que las leyes de la física serían diferentes en cada una. Pero no porque sean diferentes de una forma fundamental, sino porque lo que existe tiene ajustes ligeramente diferentes en diferentes regiones. Veámoslo con un ejemplo. Imagina que eres un pez en una pecera enorme; nunca has conocido nada que no sea la pecera. Para ti es inconcebible un sitio que los peces físicos teóricos llaman aire en el que las leyes de la física son distintas: la velocidad del sonido es diferente, la velocidad de la luz es diferente, la conductividad es diferente, etc. Los peces físicos teóricos también hablan de hielo, roca, metal y muchos más. Son todos diferentes “universos”, pero están en éste, el heteroverso.

El heteroverso es gigantesco, mucho mayor de lo que puedas imaginar, y existen regiones en él abrumadoramente grandes separadas por distancias enormes, que podrían tener sus propias variantes de leyes físicas. A diferencia de los peces físicos teóricos, sus equivalentes humanos no han conseguido descubrir esas otras versiones de las leyes de la física. Una de las razones es que no hemos podido descomponer electrones, protones y neutrones en sus constituyentes y recomponerlos de otra manera, básicamente porque las energías necesarias son demasiado elevadas.

En un heteroverso el enigma de por qué la constante cosmológica es tan pequeña se hace un poco menos enigmático. Nada hace que tenga que ser tan pequeña en principio, de hecho en otras partes del heteroverso podría ser mucho mayor. Ocurre simplemente que no podemos experimentar nunca con/en esas partes. ¿Por qué? Porque en una región del heteroverso con una constante cosmológica demasiado grande no hay cabida para la complejidad, es decir, no pueden desarrollarse observadores. No es sorprendente, por tanto, que nos encontremos en una región con una constante cosmológica pequeña.

El misterio del vacío y la constante cosmológica aún puede hacerse más perturbador, tanto como Darth Vader diciéndole quién era en realidad a Luke Skywalker. Y es que el vacío es nuestro padre.

Un estado vacío, en física cuántica, es aquel que tiene la energía más baja y concuerda con nuestra intuición de vacío, esto es, no contiene partículas. Estar en un estado vacío es como estar en lo más profundo del valle más bajo. También es posible estar en un falso vacío, en nuestra analogía sería estar en lo más profundo de un valle pero no del más bajo. El vacío es lo que llamamos un estado estable, mientras que el falso vacío es un estado metaestable

Metaestabilidad
La idea del heteroverso inflacionario, que forma parte del modelo cosmológico estándar, es que el heteroverso, o alguna parte de él, comenzó en un estado de falso vacío. Este falso vacío lleva aparejada una presión negativa, que convierte la gravedad en una fuerza repulsiva, haciendo que el universo inflacione a una velocidad vertiginosa, doblando su tamaño en tan solo 10-37 segundos. Un símil con mucha limitaciones pero posiblemente útil es considerar la esfera de la imagen: un observador en ella verifica la atracción gravitatoria normal en su superficie pero la misma gravedad en otro marco también hace que la esfera se acelere alejándola (inflacionariamente) de su procedencia.

En nuestro símil, el falso vacío es el valle superior de la imagen, que no es estable. De la misma forma que un núcleo radiactivo se desintegra en algún momento, el falso vacío se desintegra en verdadero vacío, y sube la pequeña colina central. Su cima es el Big Bang.

Pero, como apuntábamos más arriba, la desintegración del falso vacío no tiene por qué ocurrir en todos los lugares al mismo tiempo, evitando que el conjunto del heteroverso se expanda. Más bien podría ocurrir en pequeñas regiones del espacio, creando bolsas que experimentan big bangs locales. Nosotros viviríamos en una de estas bolsas, rodeando a nuestro big bang particular.

¿Quién necesita ficción cuando tiene a la ciencia?

viernes, 3 de febrero de 2012

El cuádruple enlace carbono-carbono y más allá.

La emisión del carbón diatómico contribuye al color azul de esta llama.

El carbono elemental, es decir, sin combinar con ningún otro elemento químico, puede presentarse con estructuras diferentes. Cada una de estas estructuras se denomina un alótropo y en cada una de ellas los enlaces químicos y la disposición cristalina es diferente. Los más conocidos son probablemente el diamante, el grafito (la mina de los lápices), el grafeno, los fulerenos y los nanotubos, aunque hay muchos más. Uno de esos alótropos es el C2, el carbón diatómico, aislado en los arcos eléctricos y en llamas azules (combustión completa) de hidrocarburos, y detectado en el espacio interestelar, en las atmósferas de algunas estrellas y en los cometas. No debe confundirse con otro alótropo, el (-C=C-)n

Si has leído lo anterior y no te ha llamado nada la atención es que tenemos que repasar un poquito de química básica. El carbono tiene la propiedad característica de unirse consigo mismo de diversas maneras, como demuestran los alótropos, y a otros elementos formando una variedad de enlaces químicos, lo que explica la extensión y complejidad de la química orgánica en su conjunto y de la vida en la Tierra en particular. El átomo de carbono puede formar cuatro enlaces, que pueden ser con cuatro especies diferentes, o con alguna llegan a ser dobles (como con el oxígeno) o incluso triples (consigo mismo). El carbono tenderá a formar siempre sus cuatro enlaces y, si no lo hace, estamos ante un radical, un átomo con un electrón libre que no participa en el enlace que le toca y que hace al átomo, y a la molécula en que participe, extremadamente reactivo.

Si leemos de nuevo el párrafo de apertura, ¿qué nos llama la atención? Efectivamente, si existe un alótropo del carbono que es C2, si suponemos que entre los carbonos hay un triple enlace llegamos a la conclusión de que debería ser un ¡diradical! Pero eso sería la reactividad absoluta y formaría tan rápidamente agrupaciones que tendría una vida media probablemente de picosegundos y, sin embargo, existe. ¿Cómo es posible? Muy fácil: los átomos de carbono forman un cuádruple enlace entre sí. Esta es la propuesta que hizo Paul von Ragué Schleyer hace 20 años y que ahora un equipo encabezado por Sason Shaik, de la Universidad Hebrea de Jerusalem (Israel), ha venido a confirmar. Los resultados se publican en Nature Chemistry.

El equipo de Shaik analizó la energía del cuarto enlace y comparó sus resultados teóricos con los datos experimentales disponibles. Su fuerza es de sólo un 15% de la fuerza de los primeros tres enlaces, pero es mayor que la de un enlace de hidrógeno, con lo que es suficiente para disminuir su reactividad.

Es difícil tener una imagen intuitiva, geométrica, de este cuarto enlace. Digamos que está “colgando” entre los orbitales híbridos que apuntan en sentidos opuestos en el eje de la molécula.

El equipo de investigadores llegó a sus conclusiones después de realizar cálculos mecanocuánticos de la diferencias de energía entre los estados singlete y triplete del cuarto enlace y comprobando que sus resultados cuadraban con los datos experimentales. Recordemos que en el estado fundamental singlete los dos electrones que participan en un enlace tienen espín opuesto, mientras que en el excitado triplete los electrones tienen el mismo espín. Esto quiere decir que si no existiese diferencia en la energía, o fuese muy pequeña (2 ó 3 kcal/mol a lo sumo), entre estos dos estados la molécula sería un diradical. Pero resulta que el triplete está a unos respetables 26 kcal/mol por encima del singlete, por lo que en estado fundamental existe un enlace.

La regla de cálculo estimativa afirma que la fuerza intrínseca de un enlace es la mitad de la diferencia entre el estado triplete y el singlete, lo que nos dice que este enlace tiene una fuerza de unos 13 kcal/mol. Los investigadores se toman el trabajo de calcularla de cuatro formas distintas para llegar a un rango de 11,6-14,8 kcal/mol

El inteligente lector se preguntará en este punto, ¿existen cuádruples enlaces también en los análogos del carbono, como el silicio y el germanio? Y la respuesta es no, en Si2 y Ge2 sólo hay dobles enlaces. Pero en análogos electrónicos del C2 como CN+, BN y CB-, sí hay cuádruples enlaces. ¡Lo que nos quedará por ver!

Esta entrada es una participación de Experientia docet en la XII Edición del Carnaval de la Química que organiza Historias con mucha química (como todas).

Referencia:

Shaik, S., Danovich, D., Wu, W., Su, P., Rzepa, H., & Hiberty, P. (2012). Quadruple bonding in C2 and analogous eight-valence electron species Nature Chemistry DOI: 10.1038/nchem.1263

jueves, 2 de febrero de 2012

Decoración islámica cuasiperiódica con regla y compás.


Torre Azul de Magarheh (Irán)

Hace unos meses y con motivo de la concesión del premio Nobel de química a Daniel Shechtman, hablábamos del arte geométrico islámico y cómo los patrones de diseño bidimensionales correspondían a las pautas de los cuasicristales. Esos patrones se habrían formado por teselación con azulejos, de abajo a arriba. Ahora Rima al Ajlouni, de la Tech University de Texas (EE.UU.), afirma haber encontrado ejemplos perfectos de estructuras cuasiperiódicas en la decoración de tres edificios medievales islámicos y demuestra que la construcción de los mismos no se realiza por teselación, apuntando que es necesario tan sólo regla y compás. Los resultados se publican en Acta Crystallographica Section A [1].

Desde que se descubriesen los cuasicristales en los años 80 del siglo XX tanto científicos como especialistas en artes decorativas se habían dado cuenta de la semejanza entre la decoración de algunos lugares de culto islámicos y las estructuras geométricas cuasiperiódicas. Una característica fundamental compartida es que las pautas son diferentes dependiendo del tamaño de la región observada.

En 2007 Peter Lu (Harvard) y Paul Steinhardt (Princeton) informaron [2] en Science de que habían encontrado un ejemplo de patrón geométrico del siglo XV en Isfahán (Irán) que representaba una teselación de Penrose casi perfecta. Tal y como explicamos en Arte islámico y cuasicristales, los investigadores concluían que los artesanos probablemente hubiesen creado los patrones usando un conjunto de azulejos de distintas formas, cada uno decorado con líneas que se unían para formar la estructura final. Es decir, que el motivo se construía por leyes locales, con azulejos que se podían dividir y solapar. Ninguno de los métodos propuestos por distintos investigadores ha conseguido explicar, sin embargo, como estos artesanos terminaban proporcionando una armonía general a sus diseños.

Madraza al Attarin de Fez (Marruecos)
Al Ajlouni afirma haber encontrado tres ejemplos de patrones cuasiperiódicos sin imperfecciones en edificios medievales islámicos. El primer patrón es el conocido como “rueda de carro” y es característicos de la arquitectura selyúcida (un imperio que se extendió desde Turquía a Afganistán). Al Ajlouni encuentra ejemplos en el Santuario de los Imames (Darb-i Imam, 1453), precisamente el edificio que más estudiaron Lu y Steinhardt, y la Mezquita del Viernes (también llamada mezquita jameh, o gran mezquita; alrededor de 1100), ambos en Isfahán. El segundo patrón aparecería en las paredes interiores del patio de la madraza al-Attarin (1323) de Fez (Marruecos, 1323). Finalmente, el tercero, también estudiado por Lu y Steinhardt aparece en la paredes externas de la Torre Azul (Gunbad-i Kabud, 1197) en Maragheh (Irán).

La autora muestra en el artículo que los antiguos diseñadores islámicos fueron capaces de resolver los problemas a rangos grandes que origina la cuasiperiodicidad. En los tres ejemplos considerados, Ajlouni reconstruye los patrones y muestra que el tamaño de la figura “semilla” central es proporcional al tamaño del marco general del patrón. No sólo eso, también demuestra que pueden construirse empleando tan sólo regla y compás.

"Semilla" y desarrollo del patrón de la Torre Azul de Magarheh

Si bien el hallazgo es interesante, lo es más desde el punto de vista matemático, revelando el nivel alcanzado por los artesanos islámicos, que químico o de ciencia de los materiales, como pretende la autora. La estructura de los cuasicristales ya ha sido determinada con gran precisión, experimental y matemáticamente (la cuestión candente es cómo crecen de esta manera, pero este es otro tema).

Referencias:

[1] Al Ajlouni, R. (2012). The global long-range order of quasi-periodic patterns in Islamic architecture Acta Crystallographica Section A Foundations of Crystallography, 68 (2) DOI: 10.1107/S010876731104774X

[2] Lu, P., & Steinhardt, P. (2007). Decagonal and Quasi-Crystalline Tilings in Medieval Islamic Architecture Science, 315 (5815), 1106-1110 DOI: 10.1126/science.1135491