viernes, 31 de julio de 2009

¿Puede un puente estar en dos lugares a la vez?


Físicos del Caltech diseñan un método para detectar efectos mecanocuánticos en objetos ordinarios. Los resultados han aparecido publicados en Nature.

Desde el nivel de la existencia humana hasta la nanoescala, estamos gobernados por las leyes de Newton. Sueltas algo desde una altura y, si no hay nada que lo evite, cae al suelo; empujas algo con suficiente fuerza y se mueve. A nivel atómico, estas reglas dejan de aplicarse: las partículas atómicas pueden existir en dos estados al mismo tiempo, mantienen conexiones con partículas hermanas a kilómetros de distancia, y pasan a través de superficies por unos túneles que antes no estaban allí. Las reglas que rigen lo atómico, la física cuántica, son especialmente extrañas para nosotros porque, si bien estamos hechos de átomos, no parece que tengamos estas propiedades. ¿Cómo podríamos averiguar si cualquier colección de átomos (un teclado, mi dedo, esa mesa) tiene las mismas propiedades que los átomos que la constituyen?

Esta cuestión nos ha perseguido desde el descubrimiento de la mecánica cuántica. El problema siempre ha sido encontrar una manera de medir los efectos cuánticos más allá de la escala atómica, lo que nos permitiría ver a qué tamaño la mecánica cuántica da paso a la clásica, o si las propiedades cuánticas se las arreglan de alguna manera para persistir hasta la escala humana. El físico vienés Antón Zeilinger, en experimentos pioneros realizados en 1999 [1], encontró que moléculas tan grandes como las buckyesferas (fulereno esférico, 60 átomos de carbono) presentan la dualidad onda-corpúsculo de las partículas atómicas. Desde entonces los físicos han intentado ver quién observa el objeto más grande con efectos cuánticos (como ejemplo, El universo cuántico se amplía: entrelazamiento entre osciladores mecánicos.).

Ahora, un equipo del Instituto de Tecnología de California – Caltech (EE.UU.), en un trabajo cuyo autor principal es Matt LaHaye, ha construido una estructura en miniatura (2 micras de longitud, 0,2 micras de ancho) que puede detectar si un objeto hecho de diez mil millones de átomos presenta propiedades cuánticas, en concreto, si presenta estados energéticos cuantizados. A escala humana, los objetos que oscilan, como un péndulo, tienen una curva de energía continua, van del 100 por ciento del valor posible de energía a cero y a la inversa. Pero los átomos oscilan entre estados energéticos definidos; así, por ejemplo, un átomo podría tener 100 por cien de energía o cero, pero ningún otro valor intermedio. La energía varía en paquetes indivisibles llamados cuantos y por eso decimos que la energía está cuantizada.

Keith Schwab, uno de los coautores del estudio, propuso hace algunos años que si los osciladores mayores que los átomos tenían también niveles de energía cuantizados, se debería poder detectarlos diseñando una interacción con un sistema “equivalente a un átomo”. En otras palabras, fijándonos en cómo cambian los niveles de energía de un átomo cuando se acopla con un oscilador, podríamos deducir los niveles cuánticos de energía del oscilador. Esto es lo que han construido Schwab, LaHaye y sus colegas.

En un chip de silicio, han conseguido colocar muy próximos (300 nanometros) un puente de aluminio a nanoescala y una isla superconductora, una caja de un par de Cooper, que actúa como una “partícula atómica” artificial [en la imagen, el puente es lo que parece un puente y la caja del par de Cooper el depósito en el borde a su izquierda]. Esta “partícula atómica” puede tomar uno de dos estados posibles; la información que representa este hecho es la versión cuántica de los bits binarios de un ordenador, lo que se conoce como qubit. El puente, hecho de 10 mil millones de átomos, vibra cuando se le aplica una corriente, mientras que la “partícula atómica” salta entre sus niveles de energía. Ambos dispositivos generan campos electromagnéticos que interactúan entre sí, lo que permitiría deducir el estado de uno en función del estado del otro.

El primer ensayo de los investigadores, publicado en Nature [2], es una prueba de concepto: Si se puede deducir el estado cuántico de la “partícula atómica” a partir de las vibraciones del puente, sería posible lo contrario, y usar las vibraciones de la “partícula atómica” para medir los posibles estados cuánticos del puente. Y eso es precisamente lo que han encontrado, las firmas de los estados cuánticos de la “partícula atómica” en las lecturas del puente, tan claras como el día.

Con mejoras en su técnica, los investigadores esperan poder explorar los cuantos del puente procedentes de la influencia de la “partícula atómica”. Si encuentran efectos cuánticos en el puente, sería el objeto más grande que los mostrase, un logro importante. Y, a partir de ahí, los experimentos futuros no podrían ser más excitantes. Por ejemplo, ¿tendría el puente superposición cuántica, existir en dos lugares a la vez?

Si se observan efectos cuánticos a nanoescala, que son objetos macroscópicos después de todo, ello sería signo de que nos hace falta una comprensión más profunda y fundamental de cómo está constituido el universo.

Referencias:

[1]

Arndt, M., Nairz, O., Vos-Andreae, J., Keller, C., van der Zouw, G., & Zeilinger, A. (1999). Wave–particle duality of C60 molecules Nature, 401 (6754), 680-682 DOI: 10.1038/44348

[2]

LaHaye, M., Suh, J., Echternach, P., Schwab, K., & Roukes, M. (2009). Nanomechanical measurements of a superconducting qubit Nature, 459 (7249), 960-964 DOI: 10.1038/nature08093

jueves, 30 de julio de 2009

Microorganismos que pueden predecir cambios en el ambiente: implicaciones y usos.


Un equipo de científicos del Instituto Weizmann (Israel) ha descubierto dos casos en los que un microorganismo hace predicciones acerca de cómo su entorno puede cambiar en el futuro, basándose en cómo ha cambiado en el pasado. Las noticias sobre este hallazgo han hablado de “aprendizaje”, y hay quien ha llegado a referirse a este fenómeno como “inteligencia no-neuronal”. Los resultados, que han aparecido publicados en Nature [1], podrían poner fin a algunos principios centenarios de la biología.

El equipo examinó en primer lugar la bacteria Escherichia coli [en la imagen], una de los varios cientos de especies microbianas que, sin causar daño, habitan en nuestro intestino. La E. coli se instala en el intestino grueso tras atravesar el resto del sistema digestivo. Este desplazamiento implica pasar de un entorno rico en lactosa a otro rico en maltosa o, en otras palabras, un cambio en los nutrientes disponibles para la bacteria.

Los investigadores encontraron que en el momento en que se ve expuesta a la lactosa, la E. coli comienza inmediatamente a activar pequeñas cantidades de genes para digerir la maltosa también, aunque todavía no haya nada presente. En otras palabras, la E. coli es capaz de comprender de alguna manera que hay presencia de lactosa y predecir que la siguiente comida será maltosa.

El biólogo molecular de Princeton Saeed Tavazoie comenzó a investigar este tipo de fenómeno en 2002, tras la publicación de un artículo en el que se demostraba que la levadura, cuando se la somete a un estímulo estresante como la alta temperatura, activa un gran conjunto de genes que no tienen ninguna función a la hora de combatir el stress. Era evidente que había una desconexión, que era necesario por tanto repensar todos los principios que se suponen rigen la respuesta de los microorganismos a sus entornos.

Lo que Tavazoie demostró en un estudio publicado el año pasado en Science [2], y que el equipo del Weizmann también argumenta en el artículo de Nature, es que los microorganismos son capaces de interactuar con sus alrededores de una manera que va más allá de un simple comportamiento reflejo. Aunque pre-inducir la expresión de genes desvía recursos en el primer ambiente y, por lo tanto, temporalmente dificulta la supervivencia del organismo, confiere sin embargo una ventaja adaptativa en el futuro. Dicho de otra manera, la previsión es un gasto de energía a corto plazo con miras a ganancias en supervivencia a largo plazo.

La E. coli es unicelular y no tiene, obviamente, un sistema nervioso capaz de realizar funciones tan elaboradas como aprender, anticiparse o hacer predicciones, no digamos hacer un balance coste-beneficio. ¿Cómo, entonces, son capaces de realizar asociaciones tan complejas y “preparase” para acontecimientos futuros? La respuesta, simplemente, es que no lo hacen. El hablar de aprendizaje, y todas las ideas asociadas, es sólo una analogía para describir cómo estos microorganismos “representan” sus entornos. Mucha de la motivación de los investigadores parte de esta analogía, según reconoce Amir Mitchell, autor principal del estudio del Weizmann.

Si no es aprendizaje, entonces ¿qué? En una palabra, evolución. Millones de generaciones de microorganismos que evolucionan rápidamente. Y que mediante la mutación y la selección natural se han convertido en seres altamente aptos que interaccionan de forma optimizada con sus ambientes. Si estos ambientes presentan pautas consistentes y repetitivas, la adaptación a estos ciclos se puede describir como “anticipación de fenómenos futuros”.

En posteriores experimentos el equipo de Mitchell estudió la levadura, que se usa ampliamente en investigación como organismo modelo. Simularon para ello las condiciones que tienen lugar repetidamente en el proceso de la fermentación alcohólica (de cerveza) y que suponen una serie de estreses para este hongo unicelular. Los investigadores demuestran que la levadura presenta una mejor supervivencia cuando los estreses se presentan en el orden habitual, en comparación con la que presentan si los mismos estreses se presentan en el orden inverso. En otras palabras, la levadura también tiene un “comportamiento predictivo”. A diferencia de la E. coli, que ha vivido en los sistemas digestivos millones de años, la levadura a desarrollado esta adaptación en los más o menos 7.000 que el hombre lleva fabricando cerveza.

Las implicaciones de los trabajos de Tavazoie y Mitchell son importantes, teórica y prácticamente. Teóricamente, porque el concepto mismo de homeostasis es puesto en cuestión. Durante más de un siglo se ha asumido que cuando se le hace algo a un organismo, como someterlo a calor o bañarlo en azúcares, la respuesta del organismo está directamente relacionada con el estímulo. Esta idea sería incorrecta de una forma fundamental, de tal manera que se haría necesaria una revisión de todos los resultados de la investigación con microorganismos a la luz de estos nuevos datos.

Prácticamente, porque tiene aplicaciones directas en la biología de síntesis. Existe ahora la posibilidad de forzar a un microorganismo a aprender, pudiendo programar sus respuestas genéticas en un período relativamente corto de meses o años. No sólo esto, también estudiando las respuestas genéticas de un organismo se podrá inferir en qué ambientes ha evolucionado.

Referencias:

[1]

Mitchell, A., Romano, G., Groisman, B., Yona, A., Dekel, E., Kupiec, M., Dahan, O., & Pilpel, Y. (2009). Adaptive prediction of environmental changes by microorganisms Nature, 460 (7252), 220-224 DOI: 10.1038/nature08112

[2]

Tagkopoulos, I., Liu, Y., & Tavazoie, S. (2008). Predictive Behavior Within Microbial Genetic Networks Science, 320 (5881), 1313-1317 DOI: 10.1126/Science.1154456

miércoles, 29 de julio de 2009

Sé lo que piensas...antes que tú.


El cerebro percibe la información antes de que la persona sea consciente de ello. Ahora, según un estudio que aparecerá en el número de octubre de Psychological Science, es posible detectar qué actividad está realizando el cerebro de una persona antes incluso de que ésta sea consciente de ello. Estos resultados se basan en un cambio de paradigma a la hora de estudiar las funciones cerebrales.

El equipo de investigadores, Stephen J. Hanson (Universidad de Rutgers, EE.UU.), Russell A. Poldrack (Universidad de California en Los Ángeles, EE.UU.) y Yaroslav Halchenko (ahora en Dartmouth College, EE.UU.), han aportado pruebas de que el estado mental de una persona puede ser predicho con un alto grado de precisión a través de imágenes por resonancia magnética funcional (fMRI, por sus siglas en inglés). La investigación también sugiere que es necesario un enfoque más de conjunto en el estudio del funcionamiento del cerebro y que la idea, comúnmente aceptada, de que existen áreas cerebrales localizadas responsables de tareas específicas es incorrecta y puede resultar engañosa.

Durante los últimos años, buena parte de las investigaciones basadas en neuroimágenes se han centrado en señalar áreas del cerebro que son responsables en exclusiva de funciones mentales específicas, como el aprendizaje, la memoria, el miedo o el amor (en este blog hay bastantes ejemplos de ello). En su análisis de la actividad cerebral global, los investigadores han encontrado que diferentes tareas de procesamiento tienen su particular patrón de conexiones neuronales que abarca todo el cerebro, esto es, no es tanto un área cerebral la implicada exclusivamente en una tarea sino cómo se conectan las distintas áreas para realizar una tarea. Es una relación biunívoca, cada tarea tiene su patrón y cada patrón corresponde a una tarea, como las huellas dactilares a la hora de identificar a una persona. Por tanto el cerebro no tendría una configuración de conexiones estática, sino que las ordenaría y reordenaría en función de la tarea que haya que realizar; el cerebro sería mucho más flexible de lo que se suele pensar. Para comprender las funciones cognitivas humanas hay que mirar, por consiguiente, al conjunto del cerebro, no a áreas específicas.

El estudio implicó a 130 participantes, cada uno de los cuales realizó una tarea mental diferente, desde leer a memorizar una lista de palabras pasando por tomar decisiones complejas sobre riesgos financieros, mientras eran sometidos a una fMRI. Los investigadores fueron capaces de identificar cual de las 8 tareas posibles estaban realizando los participantes, con más del 80% de acierto, analizando los datos de sus fMRI y comparándolos con clasificaciones hechas previamente a partir de los fMRI de otros participantes.

Los investigadores también fueron capaces de identificar qué clase de objetos (caras, casas, animales, etc.) estaba viendo una persona antes de que ella pudiese decirlo, mediante el análisis del patrón de actividad cerebral en el lóbulo occipital, donde se recoge la información para después enviarla al lóbulo frontal, donde se hace consciente.

Es interesante señalar que los patrones de redes neuronales implicados en cada una de las ocho tareas son muy similares aparentemente. La razón es que varias de estas funciones mentales “tiran” de los mismos procesos básicos. Por ejemplo, memorizar una lista de palabras que incluye la palabra “perro” es probable que evoque el recuerdo de un perro concreto (el propio, el de un amigo, etc.), lo mismo que ocurre si se lee una historia sobre un perro. Distinguir patrones tan parecidos fue posible usando máquinas de vectores de soporte, capaces de analizar y clasificar grandes cantidades de datos.

Estos descubrimientos abren la posibilidad de clasificar una multitud de tareas mentales en función de su patrón único de conexiones neuronales. También representa, posiblemente, un primer paso para el desarrollo de un medio de identificar funciones mentales de orden superior, como el razonamiento abstracto o mentir. Asimismo, es innegable el potencial de estos descubrimientos para el diagnóstico temprano y un mejor tratamiento de desórdenes mentales, como el autismo y la esquizofrenia, mediante un método para identificar anormalidades muy sutiles en la actividad y sincronía cerebrales.

Por otra parte, estos hallazgos pueden proporcionar una dirección más precisa a la hora de guiar las investigaciones que se están llevando a cabo para realizar un mapa de los circuitos neuronales del sistema nervioso central, lo que se conoce como Proyecto Conectoma. [En la imagen, el conectoma humano. La imagen de la izquierda muestra la estructura de fibras del cerebro obtenida mediante imágenes por difusión –izquierda-, una reconstrucción de las redes cerebrales –centro-, y la localización del núcleo operativo del cerebro, los centros más densamente conectados –derecha-. La imagen de la izquierda es de Patric Hagmann de la Universidad de Lausanne; las otras dos se han tomado de Hagmann P, Cammoun L, Gigandet X, Meuli R, Honey CJ, Wedeen VJ, Sporns O (2008) Mapping the structural core of human cerebral cortex. PLoS Biology 6, e159].

martes, 28 de julio de 2009

El chivatazo de los neutrinos facilitaría la captura de las ondas gravitacionales.




La próxima vez que una estrella explote en la Vía Láctea, los investigadores buscarán débiles ondas en el espacio tiempo llamadas ondas gravitacionales, que nunca han sido observadas directamente. Un artículo publicado el 17 de julio en Physical Review Letters presenta una forma de usar la detección de neutrinos emitidos por la supernova para identificar el momento en el que la estrella moribunda habría empezado a emitir las ondas gravitacionales. Conocer este momento ayudaría a los investigadores a distinguir las ondas en el ruido de fondo. El equipo usó modelos de la emisión de supernova y de los detectores de neutrinos para predecir el orden temporal con una precisión de 10 milisegundos.

Antes de que una estrella moribunda explote, las reacciones nucleares generan neutrinos que portan aproximadamente el 99% del total de la energía radiada por la supernova. Los neutrinos prácticamente no interactúan con la materia, por lo que la mayoría de ellos pasan a través de las capas de la estrella y alcanzan la Tierra antes que cualquier otro signo del acontecimiento. Se espera que aparezca una supernova en nuestra galaxia tres veces cada siglo. En 1987, los detectores cazaron 24 neutrinos procedentes de una estrella en explosión en la cercana Gran Nube de Magallanes, a 168.000 años luz [ver animación pulsando aquí].

Desde entonces se han puesto en marcha detectores de neutrinos más avanzados, como LIGO y VIRGO. Cuando la parte más interna del núcleo de una estrella que colapsa alcanza densidad nuclear (lo que se conoce como fase de estrella de neutrones) el núcleo exterior rebota en la empaquetadísima superficie. Este rebote debería generar ondas gravitacionales que deberían poderse detectar. La firma de ondas gravitacionales de una supernova es desconocida, pero lo que está claro es que si la señal es muy débil, puede que se pierda en el ruido. Tener un método que señale el momento del rebote permitiría a los experimentadores centrarse en los datos relevantes.

Para ver si el tiempo del rebote podía ser identificado a partir de los datos sobre neutrinos, Giulia Pagliaroli del Laboratorio Nacional Gran Sasso (Italia) y sus colegas usaron un modelo de emisión de neutrinos que ya habían aplicado a la supernova de 1987. El modelo predice la luminosidad de los neutrinos (la emisión) en función del tiempo, basándose en las interacciones entre electrones, positrones, protones y neutrones en una región alrededor del núcleo, la fuente del soplo de neutrinos. Los investigadores lo emplearon para generar datos para una supernova hipotética a 20 kiloparsecs (65.000 años luz) de distancia.

A continuación estimaron independientemente cómo los neutrinos hipotéticos habrían sido registrados por un detector tan grande como el japonés Super-Kamiokande [en la imagen], que contiene 50.000 toneladas de agua. El detector vería sólo una pequeña fracción de los neutrinos, por lo que el equipo diseñó un método para ajustar los neutrinos observados con la curva de luminosidad esperada de la supernova para calcular en qué momento, con una precisión de 10 milisegundos, la estrella habría empezado a emitir neutrinos. En su modelo de supernova el rebote, el momento de las primeras ondas gravitacionales, tiene lugar 5 milisegundos antes de la emisión de neutrinos.

Los cazadores de ondas gravitacionales pueden esperar el chivatazo de los neutrinos para volver sobre sus datos y concentrarse en ese punto en el tiempo para intentar capturarlas.

Referencia:

Pagliaroli, G., Vissani, F., Coccia, E., & Fulgione, W. (2009). Neutrinos from Supernovae as a Trigger for Gravitational Wave Search Physical Review Letters, 103 (3) DOI: 10.1103/PhysRevLett.103.031102

lunes, 27 de julio de 2009

Un descubrimiento que entra por los ojos.



Prácticamente todas las especies tienen la capacidad de detectar la luz. Al menos tres tipos de células en la retina nos permiten detectarla a los humanos. Según un artículo publicado en Nature por el equipo de King-Wai Yau de la Universidad Johns Hopkins (EE.UU.) existiría en los peces otro tipo de célula sensible a la luz, las células horizontales. Estas células se pensaba que sólo se comunicaban con las células nerviosas vecinas, ni siquiera con el cerebro.

Durante más de 100 años se ha sabido que los bastones y los conos eran las células responsables de percibir la luz y, por lo tanto, de la visión. Hace pocos años se descubrió en la retina otro fotorreceptor, las células ganglionares fotosensibles.

Un fotorreceptor es un tipo de neurona especializado que se encuentra en la retina del ojo [en la imagen la parte de abajo] que es capaz de realizar la fototransducción, la transformación de la radiación electromagnética (luz) en señales electroquímicas biológicas, un potencial de acción en la membrana celular que dará lugar a la secreción de neurotransmisores.

Hay diferencias funcionales importantes entre los conos [1 en la imagen] y los bastones [2 en la imagen]. Los conos están adaptados a la detección de colores, y funcionan bien con luz intensa; los bastones son más sensibles, pero no detectan bien el color, estando adaptados a la baja intensidad de luz. En los humanos hay tres tipos diferentes de cono, los que responden respectivamente a la luz de longitud de onda corta (azul), media (verde) o larga (amarillo-rojo). El número y proporción de bastones y conos varía entre las distintas especies, estando correlacionado con el que el animal sea primariamente diurno o nocturno. En la retina humana hay 120 millones de bastones y 6 millones de conos. También hay 1,3 millones de células ganglionares, de las cuales son fotosensibles el 1 ó 2%.

Las células ganglionares fotosensibles [6 en la imagen] poseen un fotopigmento, la melanopsina, que absorbe la luz principalmente en la porción azul del espectro visible. Su función no está relacionada con la formación de imágenes pero sí con obtener una representación estable de la intensidad de la luz ambiente. Juegan un papel importante en la sincronización de los ritmos circadianos con la salida y la puesta del sol.

Lo que hicieron Yau y su equipo fue intentar descubrir células que contuviesen melanopsina en otros vertebrados y encontraron algunas en las células horizontales de la retina en el pez gato y el goldfish. Las células horizontales [3 en la imagen] son neuronas que interconectan lateralmente, integrando y regulando la información procedente de múltiples fotorreceptores. Entre sus funciones están permitir que los ojos se adapten a distintas intensidades de luz y ver bordes y contornos

El pez gato contiene dos clases de células horizontales: las que conectan los conos y las que conectan los bastones. El equipo de investigadores consiguió aislar células horizontales y tomar lecturas de su actividad eléctrica. Encontraron que la luz provoca un cambio en la corriente eléctrica en las células horizontales de los conos, pero no en las de los bastones.

Pruebas con luz de distintas longitudes de onda permitieron comprobar que las células horizontales son miles de veces menos sensibles a la luz que los conos con los que están asociadas y que su respuesta es extremadamente lenta. Se sospecha que su función podría ser modular la inhibición lateral en períodos de tiempo largos.

El hecho de que las células horizontales sean sensibles a la luz y que intervengan en la formación de imágenes (al estar asociadas a los conos) es, cuando menos, sorprendente. El descubrimiento abre la puerta a la posible existencia de otras células sensibles desconocidas y, obviamente, a repensar en profundidad cómo vemos.

Referencia:

Cheng, N., Tsunenari, T., & Yau, K. (2009). Intrinsic light response of retinal horizontal cells of teleosts Nature DOI: 10.1038/nature08175

domingo, 26 de julio de 2009

Einstein y...Hilbert


David Hilbert es uno de los grandes matemáticos de todos los tiempos cuyo trabajo influyó en numerosos campos, desde el álgebra abstracta a la teoría de números pasando por la mecánica cuántica y la teoría general de la relatividad (TGR). Durante décadas, se asoció a Hilbert con Einstein porque aparentemente los dos llegaron a las ecuaciones de la TGR con días de diferencia. La casi simultaneidad del trabajo de los dos investigadores ha sido la base de, en el mejor de los casos, leyendas sobre la carrera para encontrar las ecuaciones de la TGR y, en el peor, sospechas sobre si Einstein vio una versión preliminar del artículo de Hilbert y basó el suyo en éste. La investigación moderna ha exonerado a Einstein completamente, y ha vuelto las tornas de tal manera que ahora es Hilbert el sospechoso de un presunto plagio.

Hilbert y Einstein se encontraron por primera vez en el verano de 1915 cuando Einstein dio una serie de seis conferencias en Gotinga, donde Hilbert era profesor. Einstein se quedó con la familia Hilbert, y los dos hombres discutieron las peleas de Einstein con la teoría de la gravedad. Einstein había publicado varios artículos desde 1911 en un intento de ampliar su teoría especial de la relatividad para incorporar la gravedad [en 1911 publicó el artículo en el que afirmaba que un rayo de luz vería modificada su trayectoria por la presencia de una masa, véase 90 años de un eclipse histórico], y aunque no había presentado una teoría completa todavía, estos artículos fueron los precursores de lo que sería la TGR. Después de varios días en la compañía de Einstein, Hilbert estaba ansioso por poner su capacidad matemática al servicio de las nuevas ideas sobre la gravitación. En esa época, la comunidad de físicos de Gotinga estaba muy orientada a la teoría y a las matemáticas como enfoque de la física moderna, y Einstein después comentaría que hicieron más por el desarrollo de las matemáticas de la TGR que sus propios colegas de la Universidad de Berlín.

Durante los meses siguientes Einstein entró en una fase de trabajo febril. Se dio cuenta de que había estado siguiendo el camino equivocado y ahora había encontrado la forma correcta de formular la TGR. Durante este tiempo dejó de escribirse con todo el mundo, excepto con Hilbert. Está claro a la vista de esta correspondencia que los dos hombres intercambiaban información sobre su trabajo. Así, Einstein comunicó que se había dado cuenta de que sus pruebas anteriores estaban equivocadas y Hilbert que estaba trabajando en la forma de conectar la gravedad con la teoría de la luz.

Pero en algún momento de este intercambio, Einstein comenzó a preocuparle el que Hilbert estuviese tan implicado. En noviembre, Hilbert le ofreció a Einstein su último conjunto de ecuaciones y Einstein, que acababa de descubrir las ecuaciones finales de la TGR, escribió la respuesta inmediatamente, claramente intentando establecer su prioridad: “El sistema que envías está de acuerdo, hasta donde puedo ver, exactamente con lo que he encontrado en las últimas semanas y que he presentado a la Academia”. Unos días después escribió otra tarjeta postal a Hilbert afirmando de nuevo que el había desarrollado sus ecuaciones independientemente: “Hoy presento a la Academia un artículo en el que derivo cuantitativamente a partir de la relatividad general, sin ninguna otra hipótesis, el movimiento [precesión] del perihelio de Mercurio descubierto por LeVerrier. Ninguna teoría de la gravitación había conseguido esto hasta ahora”. Einstein no sólo estaba aquí afirmando su prioridad, sino también señalando el increíble logro que reclamaba claramente como suyo. No mencionó, sin embargo, que había trabajado en el problema del perihelio durante varios años y que por lo tanto el descubrimiento no era algo que había escrito corriendo en unos pocos días. Hilbert no pudo hacer otra cosa que mandar una nota de felicitación.

A pesar de ello está claro que a Einstein le seguía preocupando Hilbert. Tan pronto como Einstein publicó su artículo el 25 de noviembre, escribió a su amigo Arnold Sommerfeld: “La teoría es bella más allá de toda comparación. Sin embargo, sólo un colega la ha comprendido realmente, y está buscando ‘ser partícipe’ en ella...astutamente. En mi experiencia personal no he llegado a conocer la desdicha de la condición humana mejor que a resultas de esta teoría y todo lo conectado con ella”.

Aunque la preocupación de Einstein con el asunto de la prioridad da indicios suficientes para pensar que Einstein sí desarrolló las ecuaciones de la TGR él mismo, de igual manera implica que Hilbert, también, las encontró él mismo. Consecuentemente, la historia habitual del descubrimiento de la TGR siempre ha tenido esta vuelta de tuerca extra: Einstein tendría el mérito de la TGR por unos días, ya que Hilbert la podía haber publicado también. Algunos historiadores de la ciencia han llevado la cuestión más allá. El artículo de Einstein sobre la TGR se publicó el 25 de noviembre de 1915, mientras que el de Hilbert, impreso en marzo del año siguiente, mostraba una fecha de envío del 20 de noviembre. Se ha sugerido que Einstein vio la prueba de Hilbert antes de publicar su propio trabajo, y pudo haber hecho uso fácilmente de la información de Hilbert en su artículo.

Este debate concluyó, al menos para la gente que se molesta en leer, en 1997. John Stachel, Jürgen Renn y Leo Corry publicaron un artículo en Science en el que analizaban la correspondencia de los archivos tanto de Einstein como de Hilbert. Por una parte, la fecha de envío del artículo de Hilbert es incorrecta, no se envió hasta el 6 de diciembre de 1915, dos semanas después de que se publicase el artículo de Einstein. Lo que es más importante, ni el envío original de Hilbert ni las pruebas que había enviado antes a Einstein, provocándole tanta preocupación, incluyen las ecuaciones correctas de la TGR. Einstein parece que reaccionó histéricamente al trabajo de Hilbert, pudiendo incluso malinterpretar las ecuaciones, viéndolas a la luz de sus propios hallazgos. Está claro que Einstein no pudo tomar nada de Hilbert para su artículo sobre la TGR.

Al contrario, parece que Hilbert alteró su artículo para acomodarlo a las ecuaciones recientemente publicadas por Einstein. También es cierto que el trabajo de Hilbert no pretendía hacer lo que Einstein había hecho, es decir, desarrollar una nueva teoría de la gravitación. En vez de eso Hilbert estaba intentando unir la gravedad con investigaciones previas sobre el espectro electromagnético. Su artículo llevaba el ambicioso título de “Los cimientos de la física”, por lo que tenía sentido editarlo para incluir los últimos avances en gravitación; parece que editó su envío original, incorporando el nuevo trabajo de Einstein sobre la gravitación en la versión publicada del artículo. Esto es comprensible, lo que no lo es tanto es el fechar antes el envío, lo que hizo que muchos pensasen que Hilbert había desarrollado esas ecuaciones por sí mismo. Si esta modificación de fecha fue un error o un acto consciente probablemente no se sabrá nunca. Lo que si está claro es que Hilbert fue un matemático brillante.

A pesar de la breve disputa entre Einstein y Hilbert, este episodio no llevó a una animosidad a largo plazo. El 20 de diciembre de 1915, Einstein escribió una carta a Hilbert diciendo, “Ha habido algo de malos sentimientos entre nosotros, la causa de los cuales no quiero analizar. He luchado contra el sentimiento de amargura asociado con ellos, y esto con un éxito completo. Pienso en usted con amabilidad sincera y le pido que intente hacer lo mismo para conmigo. Objetivamente es una lástima que dos colegas que se las han arreglado para sacar algo de este mezquino mundo no se lleven bien el uno con el otro”. Aunque se desconoce si Hilbert respondió, los dos hombres mantuvieron desde entonces una relación cordial.

Referencia:

Corry, L. (1997). Belated Decision in the Hilbert-Einstein Priority Dispute Science, 278 (5341), 1270-1273 DOI: 10.1126/science.278.5341.1270

sábado, 25 de julio de 2009

¿En qué se parece una neurona a una hormiga?


A la hora de tomar decisiones, las colonias de hormigas y los cerebros tienen mucho más en común de que parece a simple vista.

En un estudio publicado el 22 de julio en Proceedings of the Royal Society B: Biological Sciences [1] Stephen Pratt de la Universidad del Estado de Arizona y Susan Edwards de la Universidad de Princeton (ambas en EE.UU.) muestran cómo las colonias de hormigas hacen elecciones más racionales que los humanos.

Este resultado aparentemente paradójico se basa en una restricción evidente: la mayoría de las hormigas conocen sólo una opción, y la elección colectiva de las hormigas se auto-organiza a partir de interacciones entre hormigas mal informadas.

Elegir un nuevo hogar es la decisión más complicada a la que se enfrenta una colonia de hormigas. Cuando un hormiguero está superpoblado o dañado, las hormigas exploradoras comienzan a buscar un nuevo lugar de construcción haciendo evaluaciones independientes de diferentes localizaciones e informando a la colonia. Una decisión se toma cuando un cierto número de hormigas está de acuerdo sobre un lugar.

El equipo de investigadores examinó el proceso de elección de hormiguero en la hormiga Temnothorax curvispinosus. Estas colonias de hormigas viven en pequeñas cavidades, tan pequeñas como una bellota, y son especialmente hábiles a la hora de encontrar nuevos sitios donde aposentarse. El reto al que tuvo que enfrentarse la colonia era “elegir” un hormiguero cuando se le ofrecían dos opciones de características muy similares.

Lo que los autores encontraron es que en la toma de decisiones de las hormigas, la falta de opciones individuales se traduce en resultados más acertados por la minimización de las probabilidades individuales de cometer errores. En palabras de Pratt, emerge una “sabiduría de las masas”.

En el celebérrimo Gödel, Escher, Bach, Douglas Hofstadter fue el primero en comparar el funcionamiento en la toma de decisiones de las colonias de hormigas con el funcionamiento del cerebro. En un estudio publicado recientemente [2] un equipo multidisciplinar dirigido por James Marshall y Nigel Franks, dos científicos de la Universidad de Bristol (Reino Unido), en el Journal of the Royal Society: Interface se explora esta comparación, concretamente la búsqueda de hormiguero con la discriminación visual en el cerebro de los monos, obteniendo resultados, cuando menos, interesantes.

Las hormigas y las neuronas, a pesar de las obvias diferencias físicas, tienen una complejidad similar en el sentido de que la inteligencia que emerge del grupo es mucho mayor que la de los componentes individuales. Ambos sistemas existen a la vez como individuo y como colectivo, trabajando sin control central para tomar decisiones de grupo que parecen, a nivel de colonia o cerebro, el resultado de una sola entidad.

El proceso de búsqueda de hormiguero que describíamos arriba se parece a lo que ocurre entre las neuronas del corte visual de un mono cuando el animal realiza una tarea de discriminación visual. A un mono se le muestra una imagen de puntos moviéndose en diferentes direcciones y debe decidir en qué dirección se mueven la mayoría de ellos. Cuando la imagen aparece, las neuronas del córtex visual del mono recogen bits de información procedente de los ojos del mono, muy parecido a las hormigas evaluando una posible localización para un hormiguero. Conforme se recogen más datos, las neuronas con la respuesta correcta incrementan gradualmente el ritmo de disparo. Cuando su actividad alcanza un determinado nivel umbral, el mono toma una decisión.

Las decisiones tanto en cerebros como en colonias de hormigas están basadas, pues, en umbrales que pueden ajustarse tanto para velocidad como para precisión. Comprender cómo funcionan estos mecanismos puede tener implicaciones no sólo para el conocimiento de la organización de las colonias de insectos sociales o del funcionamiento del cerebro, también para el diseño de máquinas que afronten este tipo de problemas.

Referencias:

[1]

Edwards, S., & Pratt, S. (2009). Rationality in collective decision-making by ant colonies Proceedings of the Royal Society B: Biological Sciences DOI: 10.1098/rspb.2009.0981

[2]

Marshall, J., Bogacz, R., Dornhaus, A., Planque, R., Kovacs, T., & Franks, N. (2009). On optimal decision-making in brains and social insect colonies Journal of The Royal Society Interface DOI: 10.1098/rsif.2008.0511

viernes, 24 de julio de 2009

Los misterios de la mente artística.


Cada vez que un pollo de gaviota argéntea ve un pico de adulto, comienza a picotearlo, rogando por un poco de comida regurgitada. Puede que en este instinto se base uno de los principios básicos del arte visual contemporáneo.

Este reflejo de los pollos de gaviota puede ser manipulado. Si se les enseña un pico falso, digamos un palo de madera con un punto rojo como el que aparece en el extremo del pico de una gaviota adulta, lo picotean vigorosamente también; si tuviese tres puntos rojos lo picotearían frenéticamente. Abstraer y exagerar las características relevantes del pico de una madre gaviota refuerza la respuesta. Este fenómeno se conoce como efecto pico-desplazamiento ya que el picoteo del pico se produce como consecuencia de un estímulo desplazado.

En 1906, Pablo Picasso estaba decidido a reinventar el retrato y romper las fronteras del realismo, y una de sus primeras modelos fue Gertrude Stein. Después de meses en su estudio de París, rehaciendo cuidadosamente el reparto de la pintura sobre el lienzo, Picasso no estaba todavía satisfecho. No terminó el cuadro hasta después de un viaje a España.

Lo que Picasso vio en ese viaje que le afectó tan profundamente todavía es objeto de debate pero, sea lo que fuese, su estilo cambió para siempre. Cuando volvió a París, le dio a Stein la cabeza de una máscara primitiva. La perspectiva se aplanó y su cara se convirtió en una serie de ángulos marcados. Picasso había intencionadamente representado mal varios aspectos de su apariencia, convirtiendo el trabajo [en la imagen] en uno de los primeros de la caricatura cubista.

A pesar de la licencia artística, Stein es todavía reconocible en el cuadro. Picasso tomó sus rasgos más distintivos, los ojos pesados y de gruesos párpados, la nariz aquilina, y los exageró. Mediante una distorsión cuidadosa, encontró una manera de intensificar la realidad. Como dijo Picasso, “el Arte es la mentira que revela la verdad”.

Lo que es sorprendente es que esas distorsiones a menudo nos hacen más fácil descifrar lo que estamos mirando, particularmente cuando las hace un experto. Hay estudios que confirman que somos capaces de reconocer caricaturas de personas reales más rápidamente que una foto real. El giro fusiforme, un área del cerebro que interviene en el reconocimiento facial, responde con más entusiasmo a las caricaturas que a las caras reales, ya que las caricaturas hacen énfasis en los rasgos que nos diferencian a unos de otros. En otras palabras, las abstracciones son como el efecto pico-desplazamiento, convirtiendo la obra de arte o la tira cómica en un superestímulo.

La astuta conexión entre los instintos de los pollos de gaviota y el arte abstracto es el trabajo de V.S. Ramachandran, director del Centro del Cerebro y la Cognición de la Universidad de California en San Diego. Ramachandran cree que el efecto pico-desplazamiento explica una amplia variedad de arte, desde el expresionismo abstracto a las antiguas esculturas religiosas, como la de la diosa Parvathi (s.XII) con exagerados rasgos femeninos. Estas creaciones, según Ramachandran, son ejemplos de la “hipérbole exagerada” que define el proceso artístico.

En este sentido, el trabajo de un artista es tomar formas ordinarias de la realidad, ya sea una expresión facial o un cesto de frutas, y hacer esas formas irresistibles para el cerebro humano. En palabras de Ramachandran, “Si las gaviotas argénteas tuviesen una galería de arte, colgarían de la pared un palo largo con tres puntos rojos en la pared; lo adorarían, pagarían millones de dólares por él, lo llamarían un Picasso, pero no comprenderían porqué se sienten hipnotizadas por él. Eso es todo lo que hace cualquier amante del arte cuando compra arte contemporáneo: comportarse exactamente como un pollo de gaviota”.

Ramachandran es un pionero de la neuroestética, un nuevo campo científico que emplea las herramientas de la neurociencia moderna, como las técnicas de imagen, para revelar los misterios del arte. Aunque mucha de esta investigación se centra en el arte actual, los científicos creen que sus hallazgos aplican a todos los artistas, incluidos los realistas, si bien reconocen que es más fácil estudiar la hipérbole visual de Picasso que la de Vermeer.


Bibliografía de V.S. Ramachandran

jueves, 23 de julio de 2009

Síntomas de la anorexia nerviosa y cerebro.


Las nuevas tecnologías de la imagen nos permiten comprender mejor las anormalidades en los circuitos cerebrales de los pacientes con anorexia nerviosa (AN), conocida simplemente como anorexia, que pueden contribuir a los desconcertantes síntomas que se encuentran en la gente con este trastorno alimenticio. En una revisión de los conocimientos actuales sobre el tema que publica Nature Reviews Neuroscience, Walter Kaye, director del Programa de Desórdenes Alimenticios de la Universidad de California en San Diego, y sus colegas describen cómo disfunciones en ciertos circuitos nerviosos podrían explicar porqué se desarrolla la AN en primer lugar y comportamientos como la obsesión por hacer dieta y la pérdida de peso.

En estos momentos no existe un tratamiento efectivo para la gente con AN. Como consecuencia, muchos pacientes están enfermos durante años o, finalmente, mueren de la enfermedad. La AN es el trastorno psiquiátrico con mayor mortalidad. Una mejor comprensión de la neurobiología subyacente podría ayudar al desarrollo de estos tratamientos.

El temperamento y la personalidad durante la niñez podrían incrementar la vulnerabilidad a desarrollar AN. Existen factores que predisponen a sufrir un desorden alimenticio, algunos se sospecha que hereditarios, como el perfeccionismo, la ansiedad o las tendencias obsesivo-compulsivas. Estos rasgos se ven intensificados durante la adolescencia como consecuencia de muchos factores, los cambios hormonales, el estrés y el entorno cultural, entre ellos.

La adolescencia es una época de transición, cuando los individuos deben aprender a equilibrar las necesidades inmediatas y a largo plazo y los objetivos personales con objeto de adquirir independencia. Aprender a lidiar con mensajes y presiones sociales no siempre claros y definidos puede ser abrumador, exacerbando rasgos subyacentes de ansiedad y perfeccionismo.

Una vez que un paciente desarrolla anorexia, el hambre y la malnutrición causan profundos efectos en el cerebro y en otros órganos. Esos cambios incluyen desequilibrios neuroquímicos que pueden, a su vez, exagerar los rasgos preexistentes y acelerar el proceso de la enfermedad.

Existe una tendencia en los individuos que sufren anorexia a decir que el hacer dieta reduce la ansiedad, mientras que el comer la incrementa, al contrario que las personas sanas, que experimentan en su mayoría comer como un placer. El poderosísimo instinto de evitar la ansiedad es lo que lleva a la pérdida de peso en la AN, disparando la espiral descontrolada que termina en malnutrición y extrema delgadez.

A esto se añade que la gente con AN tiende a no experimentar el placer de vivir “el momento”. A menudo tienen una preocupación exagerada y obsesiva con las consecuencias de sus actos, buscando reglas donde no las hay, y estando atentos a no cometer errores. Los estudios de imagen sugieren que los individuos con AN padecen un desequilibrio entre los circuitos del cerebro que regulan la recompensa y la emoción (estriado y límbico) y los circuitos asociados con las consecuencias y el planear por adelantado (dorsal). Este desequilibrio podría estar relacionado con un metabolismo alterado de la serotonina y la dopamina.

Otra de las áreas cerebrales afectadas son aquellas relacionadas con las sensaciones del propio cuerpo (interocepción), como la ínsula anterior [en la imagen]. Aparte de un fallo en las respuestas apropiadas a las señales de hambre, los síntomas de la AN, como la imagen distorsionada del propio cuerpo o una motivación a cambiar disminuida, podrían estar relacionados con la conciencia interoceptiva.

Los rasgos de personalidad y carácter que pueden crear vulnerabilidades frente a la AN también pueden tener un aspecto positivo. Estos rasgos incluyen la atención al detalle, preocupación por las consecuencias, y ansias de cumplir y tener éxito. A los individuos que se recuperan de la AN, les suele ir bien en la vida.

Kaye, W., Fudge, J., & Paulus, M. (2009). New insights into symptoms and neurocircuit function of anorexia nervosa Nature Reviews Neuroscience, 10 (8), 573-584 DOI: 10.1038/nrn2682

miércoles, 22 de julio de 2009

Dos nuevos métodos para detectar la materia oscura.


Encontrar la materia oscura es tremendamente complicado porque la materia oscura, por definición, no puede verse con los instrumentos al uso porque no emite radiación alguna. Dos grupos de investigación, sin embargo, informan de que sus métodos podrían funcionar.

Una de las razones para creer que la materia oscura existe es que las galaxias rotan a tales velocidades que se desharían sin ella. El hecho de que las galaxias continúen existiendo sugiere que la atracción gravitacional de algo invisible las mantiene unidas, en otras palabras, la materia oscura.

Los anuncios de que se había localizado la materia oscura se han basado hasta ahora en las pruebas recopiladas observando las colisiones entre cúmulos de galaxias. Algunas de dichas colisiones parece que habrían separado la materia oscura de la visible. Hace tres meses, sin embargo, un equipo de físicos informó de que había pruebas a nivel subatómico. Especulaban que una abundancia de positrones (la antipartícula de los electrones) de alta energía procedentes del espacio tenía su origen en la materia oscura [1].

Una posible explicación para estos positrones es la aniquilación mutua de las formas materia y antimateria de un tipo de materia oscura llamada “partícula masiva que interactúa débilmente”, conocida habitualmente por sus siglas en inglés (WIMP). Los cálculos indicarían que cuando se encuentran una WIMP con una antiWIMP uno de los productos sería, efectivamente, un montón de positrones.

Ahora un equipo dirigido por Michael Kuhlen del Instituto de Estudios Avanzados de Princeton (EE.UU.), proporciona una explicación que refuerza esta idea. Durante los últimos años Kuhlen y sus colegas han estado trabajando en un modelo de ordenador del halo de materia oscura en el que se supone que está inmersa la Vía Láctea [2]. Su simulación comienza 50 millones de años después del Big Bang, cuando se formaron las primeras galaxias, y calcula las interacciones de mil millones de WIMPs en los siguientes 13.700 millones de años [la imagen muestra la distribución de materia oscura de esta simulación; la densidad de materia oscura sigue un código de color, rojo máxima, azul, mínima].

Los investigadores incluyeron en su modelo un efecto no considerado hasta ahora propuesto por Arnold Sommerfeld [*] en los años 30. El efecto Sommerfeld, un proceso mecanocuántico que hace que las partículas tengan más probabilidad de interactuar unas con otras en algunas circunstancias, se ignora habitualmente en física de partículas porque solamente aplica a un número limitado de condiciones. Sin embargo, entre ellas está el que la partícula sea masiva y se mueva lentamente. Como éste es el caso de las WIMPs, Kuhlen y su equipo lo incluyó en su modelo. Después de hacer que el programa corriera en un superordenador, encontraron que la materia oscura debería aniquilarse mucho más fácilmente de lo que se pensaba. Informan de su hallazgo en Science [3].

Si están en lo cierto, su modelo explicaría la abundancia observada de positrones de alta energía. Además, el modelo proporciona otra variable a observar también proveniente de la aniquilación de la materia oscura: rayos gamma procedentes del halo de la Vía Láctea. Es relativamente sencillo detectarlos usando telescopios como el Fermi (antes GLAST).

Por otra parte Pierre Colin del Instituto Max Planck de Física (Alemania) y sus colegas calculan que la sombra de la Luna podría ayudarles a discernir si la abundancia de positrones viene realmente de la aniquilación de materia oscura, usando telescopios que observan la radiación de Cherenkov (destellos de luz en el cielo) que se crea cuando los rayos cósmicos, en la forma de positrones y electrones de alta energía, colisionan con la parte alta de la atmósfera.

Colin describió el mecanismo de su método el pasado 9 de julio durante la Conferencia Internacional de Rayos Cósmicos que tuvo lugar en Lodz (Polonia). La Luna bloquea los electrones y positrones con tanta eficacia como con la que bloquea la luz. Esto crea sombras, zonas sin electrones ni positrones. Pero, dado que estas partículas están cargadas eléctricamente, también interactúan con el campo magnético de la Tierra. Y como sus cargas son opuestas, la interacción desvía sus trayectorias en sentidos opuestos.

El resultado es que la sombra de electrones y la de positrones están separadas. Normalmente, es imposible distinguir si la radiación de Cherenkov ha sido generada por en electrón o un positrón. Sin embargo, cuando la Luna está entre el telescopio y la fuente de rayos cósmicos, sería posible distinguirlo fijándose en los bordes de las sombras. Esto permitiría a los físicos ver si el número de positrones de alta energía se ajusta con lo previsto por la teoría y, muy apropiadamente, usar las sombras para arrojar luz sobre la existencia de la materia oscura.

Referencias:

[1]

Adriani, O., et al (2009). An anomalous positron abundance in cosmic rays with energies 1.5–100 GeV Nature, 458 (7238), 607-609 DOI: 10.1038/nature07942

[2]


[3]

Kuhlen, M., Madau, P., & Silk, J. (2009). Exploring Dark Matter with Milky Way Substructure Science DOI: 10.1126/science.1174881

[*] Arnold Sommerfeld fue probablemente uno de los mejores profesores de física de la historia. Era reconocido a nivel mundial por su capacidad para detectar y desarrollar el talento. Entre sus alumnos de doctorado estuvieron Heisenberg, Pauli, Debye y Bethe, todos premios Nobel. Entre los de postdoctorado también consiguieron el Nobel Pauling y Rabi. Sin embargo, la lista de sus alumnos que se hicieron famosos por sus contribuciones a la ciencia es enorme. Se puede consultar parcialmente en la wikipedia en inglés, aquí. Sommerfeld fue propuesto 81 veces al premio Nobel, incomprensiblemente, nunca lo ganó.

martes, 21 de julio de 2009

El ADN de un individuo podría ser diferente en las células de la sangre y en las de tejido.


El material genético podría variar entre las células sanguíneas y las de otros tejidos de un mismo individuo según se informa en un comunicado en Human Mutation. El resultado cuestionaría la validez de los hallazgos obtenidos mediante estudios de asociación de genoma completo.

El ADN complementario (ADNc) es una copia de una cadena de ADN. Por ejemplo, si el ADN original tiene una secuencia de bases ATT, la secuencia complementaria será TAA. El ADNc puede unirse a los sitios complementarios de una cadena de ADN.

El ADNc es importante naturalmente en la creación de nuevas copias de ADN, y se ha convertido en una importante herramienta experimental. En la replicación del ADN, se separan las dos cadenas que forman la doble hélice. Una molécula llamada ADN polimerasa recorre la longitud de cada cadena, haciendo una copia complementaria de cada cadena. Las dos nuevas cadenas son complementarias la una de la otra, y pueden unirse entre sí en un proceso llamado anillamiento. Las cadenas antiguas también se anillan. El resultado son dos copias completas de ADN.

Buscando genes que pudiesen ser el origen de una enfermedad, mortal en muchos casos si hay rotura, llamada aneurisma aórtico abdominal (AAA), investigadores de la Universidad McGill (Canadá) liderados por Morris Schweitzer encontraron que el ADN complementario del tejido aórtico abdominal enfermo no coincidía con el ADN genómico de los leucocitos de la sangre del mismo paciente.

Los estudios de asociación de genoma completo son una forma relativamente nueva de identificar los genes implicados en una enfermedad humana. Este método busca pequeñas variaciones, llamadas polimorfismos de un solo nucleótido (SNP, por sus siglas en inglés; se suele pronunciar “esnip”; en la imagen), que se encuentran más frecuentemente en las personas que padecen una determinada enfermedad que en las que no la tienen. Cada estudio puede analizar cientos o miles de SNPs a la vez. Los investigadores usan los datos de este tipo de estudio para señalar genes que pueden contribuir al riesgo de que una persona desarrolle una determinada enfermedad.

Los investigadores de McGill descubrieron tres SNPs en el gen BAK1 en muestras de tejido enfermo de 31 pacientes de AAA que no estaban presentes en las muestras de sangre correspondientes. También hicieron pruebas en 5 personas sanas y encontraron la misma discrepancia.

Muchos estudios de asociación de genoma completo, especialmente los estudios de enfermedades sistémicas como la diabetes o la ateroesclerosis, dependen exclusivamente de ADN recogido de muestras de sangre para identificar los genes asociados a la enfermedad. Si los resultados del equipo de Schweitzer se confirman ello significaría que un estudio que mire sólo la sangre no sería completo, lo que explicaría los relativamente bajos niveles de asociación obtenidos por los estudios de genoma completo.

Basándose en sus resultados los investigadores se atreven a formular una hipótesis según la cual podrían preexistir múltiples variantes de los genes en formas “minoritarias” en tejidos no enfermos específicos que podrían seleccionarse en función de las condiciones intra o extracelulares.

La discrepancia encontrada, sin embargo, es aún compatible con un efecto de la “edición” que hace el ARN, por lo que es necesaria mucha más investigación. De momento, lo primero es comparar ADN genómico en sangre y tejidos de una muestra mucho más amplia de individuos. El equipo de Schweitzer ya está en ello.

Referencia:

Gottlieb, B., Chalifour, L., Mitmaker, B., Sheiner, N., Obrand, D., Abraham, C., Meilleur, M., Sugahara, T., Bkaily, G., & Schweitzer, M. (2009). BAK1 gene variation and abdominal aortic aneurysms Human Mutation, 30 (7), 1043-1047 DOI: 10.1002/humu.21046

lunes, 20 de julio de 2009

Una red neuronal artificial es capaz de predicir las apuestas de un jugador de póquer.


Śrī Pandit Jawāharlāl Nehru, el que fuera primer ministro de la India e iniciador de una saga política, dijo una vez “La vida es como una partida de cartas. La mano que te reparten es el determinismo; la forma en que la juegas es el libre albedrío”. Un nuevo estudio publicado en el Journal of Gambling Studies recoge que una red neuronal artificial predice las apuestas de un jugador de póquer y cuánto ganará o perderá en acumulado con una precisión de tres cifras decimales.

El estudio de sistemas complejos que no pertenecen al campo tradicional de la ciencia está a la orden del día. El póquer es uno especialmente interesante. A diferencia, por ejemplo, de la bolsa de valores, en la que influyen factores como la política, la guerra o el tiempo atmosférico, los torneos de póquer no están afectados por fenómenos externos. Además, se considera que es uno de los juegos de apuestas dónde la habilidad de los jugadores influye más en el resultado final.

Haciendo buena la primera parte de la frase de Nehru, Clément Sire de la Universidad de Toulouse (Francia), demostró que su modelo [1], en el que empleó las herramientas de la mecánica estadística, de la variante del póquer Texas Hold’Em era capaz de predecir muchas de las características de un torneo de póquer, lo que implica que estas características tomadas como un todo son predecibles.

Así, por ejemplo, Sire descubrió que tanto el número máximo de fichas (de casino, dinero) que tiene el jugador con más fichas en cada momento como el número total de líderes en fichas de un torneo, son proporcionales al logaritmo del número inicial de jugadores del torneo. Esto es un resultado típico de modelos que reproducen sistemas en los que hay agentes que compiten, como los de la evolución biológica.

Si dadas unas condiciones iniciales podemos predecir el resultado en términos estadísticos, tenemos el determinismo del que hablaba Nehru. Pero, siempre podemos decir que esos son los grandes números, que cada jugador toma cada una de sus decisiones libremente en cada momento. Pero ¿qué ocurre si las apuestas que va a hacer un jugador concreto son predecibles? Eso es lo que consigue la red neuronal artificial (RNA) que ha creado Víctor Chan del Instituto Politécnico de Macao (China) [2].

La RNA que ha creado Chan es relativamente sencilla. Se trata de una RNA de retropropagación. La RNA toma un conjunto de datos de resultados obtenidos y los compara con los que ella misma ha suministrado partiendo de los mismos datos de partida, determinando así el error de la capa de nodos más externa, la de salida [S en la imagen]. Sabiendo el peso [W en la imagen] que en cada nodo de salida tiene cada nodo de la capa oculta anterior, se le asigna una “culpa” a cada uno, siendo esta culpa el error asignado a ese nodo. De esta forma el error viaja hacia atrás (de ahí el nombre), pasando por las distintas capas ocultas [O en la imagen] hasta llegar a los nodos de entrada [E en la imagen]. Las conexiones se reajustan usando esta información, calculando cuál debía haber sido su peso para minimizar el error de salida. Tras un período de “aprendizaje”, una iteración del procedimiento anterior, la RNA está lista para ser usada.

Chan usó los patrones de juego de 6 jugadores online de Texas Hold’Em, cada uno de los cuales había jugado más de 100 partidas. Introdujo en la RNA sólo las primeras partidas y le pidió que predijese cómo jugaría cada uno a continuación en función de dos modelos, M1 y M2.

M1 es el modelo para el valor de la apuesta sucesiva, que modela sucesivamente y debe predecir los valores de las apuestas en cada una de las partidas que cada jugador realiza en función de sus pérdidas/ganancias en una serie de partidas inmediatamente precedentes y de su resultado neto en el juego.

Tras el entrenamiento, M1 fue capaz de predecir el valor de las apuestas de un jugador en juegos sucesivos con una precisión de al menos tres cifras decimales de dólar en promedio, para cada uno de los seis jugadores.

M2 es el modelo para la trayectoria temporal de las pérdidas/ganancias acumuladas, que modela y predice la trayectoria temporal de las pérdidas/ganancias acumuladas de un jugador en función de las pérdidas/ganancias en una serie de partidas inmediatamente precedentes.

Increíblemente, este modelo también fue capaz de predecir la trayectoria temporal de las pérdidas/ganancias y, por lo tanto, las pérdidas o ganancias acumuladas, con una precisión similar. La influencia de las habilidades de cada jugador, sus estrategias y personalidad está prácticamente reflejada en el patrón de su trayectoria de pérdidas/ganancias de las partidas anteriores.

En resumen, a partir de una muestra de partidas iniciales, el comportamiento de cada jugador era casi completamente predecible matemáticamente de la misma manera en 6 personas. Me imagino a algún jugador profesional o al jefe de sala de un casino leyendo esto y corriendo a buscar aplicaciones prácticas; sin embargo, más trascendentemente, ¿qué significa este resultado para el libre albedrío?

Referencias:

[1]

Sire, C. (2007). Universal statistical properties of poker tournaments Journal of Statistical Mechanics: Theory and Experiment, 2007 (08) DOI: 10.1088/1742-5468/2007/08/P08013

[2]

Chan, V. (2009). Using Neural Networks to Model the Behavior and Decisions of Gamblers, in Particular, Cyber-Gamblers Journal of Gambling Studies DOI: 10.1007/s10899-009-9139-7

domingo, 19 de julio de 2009

Einstein y....Marie Skłodowska Curie


Marie Skłodowska Curie, una diminuta física polaca que vivió la mayor parte de su vida en París, es una de las científicas más famosas a nivel mundial; no sólo fue una mujer pionera en un mundo dominado por los varones, también fue la primera persona en recibir dos premios Nobel. Einstein y Curie no tuvieron una relación extremadamente estrecha, pero su fama simultánea aseguró que se encontrasen a menudo.

Marie Curie ganó su primer premio Nobel, en física, en 1903, y el segundo, en química, en 1911. Trabajando en colaboración con su marido, Pierre Curie (1859-1906), Curie ganó los premios Nobel por el descubrimiento de los elementos radioactivos polonio y radio, fundando esencialmente la ciencia de la radioactividad. La pareja recibió su primer premio juntos, pero Pierre murió atropellado por un coche de caballos antes de que Curie ganase el segundo premio.

Einstein conoció a Curie no mucho después de que ella ganase su segundo premio Nobel [en la imagen, en esa época]. Ambos fueron invitados a la Primera Conferencia Solvay en Bruselas [ver imagen en Einstein y...Jules Henri Poincaré]. Poco después de la conferencia, Curie escribió una recomendación profesional para el desenvuelto físico de 31 años. Dijo, “He admirado mucho los trabajos publicados por Monsieur Einstein en cuestiones concernientes a la física teórica moderna. [...] en Bruselas, donde asistí a una conferencia en la que Monsieur Einstein participó, pude apreciar la claridad de su mente, la amplitud de su documentación y la profundidad de su conocimiento. Si se considera que Monsieur Einstein es aún muy joven, se tiene todo el derecho para depositar las mayores esperanzas en él y verle como uno de los teóricos importantes del futuro”. Einstein y Curie se hicieron amigos en la conferencia, llevando incluso a sus hijos de excursión juntos a un paso en los Alpes cerca de Engadine en 1913.

Los dos físicos también coincidieron brevemente en política mundial. En 1922, Curie fue clave a la hora de convencer a Einstein para que se uniera a la recientemente constituida Comisión Internacional de Cooperación Intelectual, dependientemente de la Sociedad de Naciones. En esta comisión, aparte de Einstein y Curie, estaban entre otros Henri Bergson, Bela Bartók, Thomas Mann, Salvador de Madariaga y Paul Valéry. Curie escribió “Mi sensación es simplemente que la Sociedad de Naciones, aunque aún imperfecta, es una esperanza para el futuro”. Durante un tiempo Einstein estuvo de acuerdo, pero menos de un mes después de su incorporación, las posiciones políticas de Einstein se vieron alteradas por el asesinato del ministro alemán de exteriores, el judío Walther Rathenau. Consternado por estar representando a Alemania en la Comisión, Einstein escribió a Curie, “Me he dado cuenta de que un antisemitismo muy fuerte reina en el entorno que se supone represento en la Sociedad de Naciones y [...] no puedo estar de acuerdo con este papel de representante o mediador. Pienso que lo comprenderás perfectamente”. Curie no lo comprendió. Intentó que cambiase de opinión, y finalmente Einstein volvió para otro período con la sociedad.

A pesar de sus desencuentros políticos, Einstein fue una de las muchas figuras prominentes que acudieron en ayuda de Curie cuando fue atacada en la prensa por una aventura que tuvo con Paul Langevin, alumno de Pierre Curie, más joven que ella y casado [en la imagen en Einstein y...Jules Henri Poincaré se le puede ver de pie, primero por la derecha, al lado de Einstein. Dicha foto corresponde a la época del affaire]. Aunque la historia ha demostrado que sí ocurrió, Curie siempre lo negó. Einstein creyó a Curie y afirmó que los rumores eran estupideces. “Ella no es lo suficientemente atractiva como para llegar a ser peligrosa para nadie”, declaró. Una afirmación muy interesante viniendo de un hombre que tendía a tener problemas con las mujeres (y que más de una vez sucumbió a esos asuntos “peligrosos”, pero eso será motivo de otra entrada, o entradas). Esta frase de Einstein nos habla también de la larga amistad intelectual entre Einstein y Curie. El que Curie fuese una mujer no llegó a entrar en la cabeza de Einstein.

Tras años de exposición a la radiación debido a su trabajo, Marie Curie murió el 4 de julio de 1934. Un año después, Einstein escribió un elogioso homenaje para un acto en recuerdo a Curie el 23 de noviembre de 1935, en el Museo Roerich de Nueva York. “Fue para mí una fortuna estar unido a Madame Curie durante veinte años de sublime y perfecta amistad. Llegué a admirar su grandeza humana sin límite. Su fuerza, su pureza de voluntad, su austeridad consigo misma, su objetividad, su juicio incorruptible, todas estas son virtudes que raramente se encuentran en un sólo individuo.”

sábado, 18 de julio de 2009

¿Por qué son algunas personas más inteligentes que otras?


En un artículo aparecido en Current Directions of Psychological Science, Eduardo Mercado III de la Universidad del Estado de Nueva York en Buffalo, intenta dar una respuesta a esta pregunta. Describe cómo ciertos aspectos de la estructura y función cerebrales determinan la facilidad con la que se aprenden las cosas, y cómo esta capacidad de aprendizaje contribuye a las diferencias individuales en inteligencia.

El córtex cerebral humano, la parte externa del cerebro, tiene en promedio 2,4 mm de espesor y está compuesto por seis capas diferentes [ver imagen]; cada capa se caracteriza por la predominancia de un tipo de célula nerviosa y por el destino de los axones de estas células dentro del cerebro. Como comparación digamos que el córtex de los delfines tiene 5 capas y el de los reptiles 3.

Además de esta estratificación del córtex, digamos horizontalmente, existe una organización vertical, las llamadas columnas corticales. Las columnas corticales consisten en una serie de grupos neuronales iterativos (también llamados módulos) que se extiende radialmente (siguiendo un radio imaginario desde el centro del cerebro hasta la superficie cerebral) a través de las capas VI [L6 en la imagen] a la II [L2/3 en la imagen], siendo la capa I la externa. Las neuronas en una columna dada están interconectadas verticalmente y comparten la conectividad extrínseca, por lo que de hecho funcionan como unidades funcionales básicas al servicio de un grupo de operaciones corticales, estáticas y dinámicas, que incluye no sólo áreas sensoriales y motoras sino también áreas de asociación en las que se basan las funciones cognitivas superiores. Se calcula que puede haber 2 millones de columnas funcionales en los humanos.

La plasticidad cognitiva es la capacidad para aprender y mejorar las habilidades cognitivas tales como resolver problemas y recordar sucesos. Mercado argumenta que la base estructural de la plasticidad cognitiva es la columna cortical. El identificar cómo las columnas verticales nos ayudan a adquirir capacidades cognitivas nos podría ayudar a explicar porqué tienen lugar las variaciones en esta capacidad, es decir, porqué la gente adquiere habilidades a diferentes velocidades y porqué nuestra capacidad para aprender nuevas habilidades cambia conforme envejecemos.

Los estudios de anatomía comparada entre especies nos dicen que un córtex mayor predice una mayor capacidad intelectual. La fuente de esta correlación no está clara, pero Mercado cree que un “córtex más expansivo proporciona más espacio en el que pueden distribuirse una mayor cantidad y mayor diversidad de columnas corticales”. En otras palabras, Mercado dice que en lo que respecta al potencial intelectual, no es ni el tamaño absoluto ni el relativo lo que importa, sino cuántas columnas corticales hay disponibles y qué clase de columnas son.

Una implicación importante de esta propuesta es que los cambios estructurales en las columnas corticales originados por las experiencias de aprendizaje y el desarrollo también contribuirían a las diferencias individuales en inteligencia. Es decir, que la experiencia podría ser tan importante como la genética a la hora de determinar la capacidad intelectual. A este respecto puede ser muy interesante leer El cerebro plástico: el cociente intelectual se puede mejorar.

Referencia:

Mercado III, E. (2009). Cognitive Plasticity and Cortical Modules Current Directions in Psychological Science, 18 (3), 153-158 DOI: 10.1111/j.1467-8721.2009.01627.x