lunes, 30 de noviembre de 2009

Cuándo comes puede ser tan importante como qué comes.


Experimentos con ratones revelan que los altibajos diarios en la expresión de genes en el hígado, la cámara de compensación metabólica del cuerpo, están controlados principalmente por la ingesta de comida y no por el reloj circadiano del cuerpo. El estudio lo publica en los Proceedings of the National Academy of Sciences un equipo del Instituto Salk de Estudios Biológicos (EE.UU.) liderado por Satchidananda Panda.

Estos resultados podrían explicar por qué los trabajadores a turnos son especialmente propensos a presentar disfunciones metabólicas como diabetes, altos niveles de colesterol u obesidad, el llamado síndrome metabólico. En efecto, si la ingesta de alimentos determina la actividad de un gran número de genes de forma completamente independiente del reloj circadiano, las horas de alimentación y ayuno tendrán un gran impacto en el metabolismo. No sería el trabajo a turnos por sí mismo el que produce los trastornos metabólicos sino los cambios de turno y los fines de semana, en los que se cambia el horario de comidas.

En los mamíferos, el sistema de regulación circadiano del tiempo está compuesto por un reloj central en el cerebro y “osciladores” en los tejidos más periféricos. El reloj central del cerebro se ajusta con la luz y determina las preferencias diurnas y nocturnas de un animal, incluyendo los ciclos sueño-vigilia y el comportamiento alimenticio. Los relojes de los órganos periféricos son mayormente insensibles a los cambios en el régimen de luz. Por el contrario, su fase y amplitud se ven afectados por muchos factores, incluyendo los momentos de ingesta de alimentos.

Estos relojes marcan la hora mediante el aumento y la disminución de la actividad de los genes según un programa de aproximadamente 24 horas (de aquí el nombre circa-dia-no, casi un día) que anticipa los cambios en el ambiente y adapta muchas de las funciones fisiológicas del cuerpo al momento apropiado del día.

A pesar de su importancia no estaba claro si los ritmos circadianos en la transcripción hepática estaban controlados exclusivamente por el reloj del hígado anticipándose a la llegada de nutrientes o si respondía a la ingesta real de comida.

Para investigar la influencia que la ingesta periódica de alimentos ejerce sobre el oscilador circadiano hepático, los autores pusieron ratones normales y modificados genéticamente sin funcionamiento del oscilador hepático, en programas estrictamente controlados de alimentación y ayuno mientras se monitorizaba la expresión génica en todo el genoma.

El equipo encontró que poner a los ratones en un programa estricto de 8 horas de alimentación/16 horas de ayuno restauraba la pauta de transcripción circadiana de la mayoría de los genes metabólicos en el hígado, incluso en los ratones sin un reloj circadiano. Por el contrario, durante ayunos prolongados, sólo un pequeño subconjunto de los genes continuaban transcribiéndose según una pauta circadiana, incluso si había un reloj circadiano operativo.

En el mundo real no comemos a la misma hora todos los días, por lo que tiene sentido que el incremento de la actividad de los genes metabólicos se produzca cuando más los necesitas. Por ejemplo, los genes que codifican las proteínas para descomponer los azúcares aumentan su actividad inmediatamente después de una comida, mientras que la actividad de los genes que codifican enzimas necesarias para descomponer las grasas es más alta cuando ayunamos. Por tanto un programa de alimentación diario claramente definido pone a las enzimas del metabolismo a trabajar a turnos y optimiza la quema de azúcares y grasas. Los autores creen que esta alternancia podría tener un objetivo primordial: separar procesos incompatibles, como las rutas metabólicas que producen productos oxidantes que pueden dañar al ADN y la propia replicación del ADN.

Referencia:

Vollmers, C., Gill, S., Di Tacchio, L., Pulivarthy, S., Le, H., & Panda, S. (2009). Time of feeding and the intrinsic circadian clock drive rhythms in hepatic gene expression Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0909591106

Hoy es el I Carnaval de la Física.


Blogueros de varios países nos hemos unido por iniciativa de Gravedad Cero para celebrar hoy un carnaval para conmemorar el 400 aniversario de la primera vez que Galileo enfocó un telescopio al cielo. Las entradas que hemos creado, así como un mapa que da idea de la expansión de la iniciativa, pueden verse aquí. Si te atrae la física, o la ciencia en general, no puedes dejar de pasarte, hay algo para todos los gustos.

Nuestro agradecimento a Carlo y Roi, por la iniciativa y por el esfuerzo, y nuestra enhorabuena por el éxito.

domingo, 29 de noviembre de 2009

Einstein y...Werner Heisenberg


El físico alemán Werner Heisenberg fue uno de los primeros investigadores de la mecánica cuántica, ayudando a establecer sus ecuaciones y contribuyendo a la interpretación comúnmente aceptada de éstas, la que se conoce como interpretación de Copenhague. Einstein fue una de los ídolos de Heisenberg, y los dos científicos se reunieron en múltiples ocasiones para discutir las implicaciones de la mecánica cuántica, pero discreparon a menudo y en multitud de temas, desde la ciencia a la política.

Werner Heisenberg descubrió por primera vez el trabajo de Einstein mientras estudiaba en la Universidad de Múnich, donde asistió a un curso sobre la relatividad que impartió Arnold Sommerfeld. A Heisenberg le encantó la insistencia de Einstein en que sólo debemos teorizar sobre lo que podemos percibir (posición que tenía su origen en la influencia de Ernst Mach): toda la relatividad surgía de la insistencia en que, si bien diferentes personas observan diferentes sucesos, todas esas observaciones son válidas. Este concepto se grabó en el cerebro de Heisenberg, y se convertiría en una de las creencias fundamentales que darían forma a su ciencia posterior.

Heisenberg quería escribir su tesis doctoral sobre la relatividad, pero fue disuadido de ello por su compañero de estudios Wolfgang Pauli, que llegaría a ganar el Nobel por sus trabajos en la mecánica cuántica. En esa época Pauli estaba escribiendo lo que llegaría a ser el primer gran ensayo sobre la teoría de la relatividad, que para él era un campo de la ciencia que ya había sido bastante bien establecido. El verdadero futuro está, le dijo Pauli a Heisenberg, en la física atómica.

Heisenberg, sin embargo, se sentía intrigado por la figura de Einstein. En 1922, el joven alemán se dirigió a Leipzig para asistir a una conferencia de su ídolo. Habría sido la primera vez que Heisenberg se encontrase con el hombre al que tanto respetaba, pero no sería así. La fecha de la conferencia coincidió con el comienzo de los ataques antisemitas contra Einstein; nada más llegar a la sala donde tendría lugar la conferencia, a Heisenberg le entregaron un folleto en el que, según Heisenberg escribiría en su libro “La parte y el todo”, se denunciaba a Einstein como “un extraño al espíritu alemán, y exagerado por la prensa judía”. Heisenberg, cristiano luterano y “ario”, había pertenecido al movimiento juvenil nacionalista de Alemania casi toda su vida, por lo que se vio sorprendido por este ataque nacionalista a un campo exclusivamente científico. Ese día, habida cuenta de las tensiones existentes y los previsibles incidentes, el orador anunciado fue sustituido: Max von Laue fue el conferenciante.

Einstein y Heisenberg se encontraron por primera vez en 1924, durante una visita que Einstein hizo a la Universidad de Gotinga. En esta universidad defendería Heisenberg ese mismo año su tesis doctoral, codirigida por Max Born y Arnold Sommerfeld, tras haber ampliado sus conocimientos de matemáticas con David Hilbert. En ese período, se estaba desarrollando la teoría de la mecánica cuántica, y a Einstein no le gustaba el rumbo que esas teorías estaban tomando: conforme los físicos intentaban aportar nuevas explicaciones a cómo los átomos emitían radiación, desarrollaban teorías que sólo ofrecían respuestas probabilísticas. Sus teorías podían predecir un rango de posibilidades para cómo se comportaría un átomo, pero una y otra vez, los científicos se veían forzados a creer que no había un resultado definido para un suceso dado. Cuando se trataba de partículas, decían estos físicos, simplemente no hay una perfecta correlación entre causa y efecto. Heisenberg fue arrastrado por el entusiasmo de crear un nuevo campo científico. Einstein, por otro lado, no podía creer la alocada dirección que estaba tomando la física. Por tanto el encuentro entre Einstein y Heisenberg fue interesante: el joven de 23 años conoció a su ídolo sólo para descubrir que tenían ideas opuestas. Fue el comienzo de una separación creciente entre Einstein y la mayoría de sus contemporáneos, pero Heisenberg todavía tenía la esperanza de convencer a Einstein de la corrección de la nueva ciencia.

Fue en septiembre de 1925 cuando Heisenberg hizo su primera aportación asombrosa a la física. Publicó un artículo en el que se exponían las matemáticas necesarias para crear las predicciones probabilísticas que otros estaban estudiando. Básicamente esta fue la primera formulación de la mecánica cuántica. Esta formulación se llama álgebra de matrices, y conseguía lo mismo que la famosa ecuación de Schrödinger, que éste desarrollaría el año siguiente. Hubo una gran rivalidad entre los dos hombres sobre qué método debería ser usado. Hoy día se usan ambos, pero la mayoría de los científicos prefieren la mecánica ondulatoria de Schrödinger por ser más simple.

Años después, Heisenberg diría que desarrolló sus teorías basándose en lo que él veía como la filosofía de Einstein de sólo analizar observables. Pero el artículo de las matrices de Heisenberg no consiguió que Einstein cambiara sus posiciones ni un ápice. Casi inmediatamente Einstein replicó con una carta a Heisenberg en la que planteaba numerosas objeciones, y que Heisenberg respondió en noviembre rebatiendo cada una de ellas. En esta carta parece que Heisenberg todavía creía que sus dos puntos de vista podrían reconciliarse algún día.

El abismo entre los dos científicos era más grande de lo que Heisenberg creía. En abril de 1926, los dos físicos se encontraron cara a cara por segunda vez tras la conferencia que Heisenberg había dictado en la Universidad de Berlín y a la que Einstein asistió. Heisenberg contaría después la historia de cómo cuando Einstein planteó una objeción al álgebra matricial de Heisenberg, éste intentó usar la filosofía de Einstein contra el propio Einstein, señalando que él había hecho lo mismo que Einstein con la relatividad, usando sólo lo que uno podía percibir directamente para formular sus teorías. Después de todo, esta filosofía, conocida como positivismo, era la preferida por Heisenberg. Einstein, sorprendido, dijo: “Pero, ¿no creerás de verdad que sólo las magnitudes observables deben aparecer en una teoría física?”. Pasmado por la respuesta, Heisenberg dijo: “Pensé que fue precisamente usted el que hizo de esta idea la base de su teoría de la relatividad”. Einstein replicó: “Quizás usé este tipo de filosofía; pero en cualquier caso es una tontería. Sólo la teoría decide lo que uno puede observar”.

El punto de vista de Einstein había claramente cambiado en los últimos veinte años. Ahora creía que uno tenía que usar algo más que sólo lo observable para construir una teoría válida. Heisenberg tuvo que afrontar el hecho de que el hombre que él veía como el pionero de la física moderna no le apoyaba.

En 1927, Heisenberg desarrolló la teoría por la que es más famoso, el Principio de Incertidumbre. Basándose en lo difuso del comportamiento de las partículas, Heisenberg postuló que ciertas propiedades atómicas nunca podrían conocerse con exactitud. Si, por ejemplo, uno sabía la posición exacta de un electrón, no podía saber su velocidad exacta. Al principio, Heisenberg explicaba esta idea diciendo que uno simplemente no puede medir la posición sin afectar a la velocidad; medir la posición cambia la velocidad, y viceversa. Por lo que no se pueden conocer ambas variables al mismo tiempo. Pero poco después, Heisenberg y la mayor parte de los físicos dieron una interpretación más profunda: no se trataba de una cuestión de medir simultáneamente, sino de que ambas variables simplemente no podían ser precisas al mismo tiempo. Si el electrón tuviese una velocidad definida entonces estaría difuminado en el espacio, sin una posición definida, y viceversa. A Einstein, como era de esperar, le gustó esta teoría de Heisenberg tan poco o menos que las anteriores.

Ese año de 1927 la Conferencia Solvay se celebró en octubre sobre “Electrones y fotones” [en la imagen], fue durante la misma que Einstein, desencantado con el principio de incertidumbre que Heisenberg había presentado, exclamó “Dios no juega a los dados”, a lo que Niels Bohr replicó “Einstein, deja de decirle a dios lo que tiene que hacer”.

A pesar de las discrepancias en lo científico, el respeto entre Einstein y Heisenberg era enorme. Einstein se dio cuenta rápidamente de lo adecuadamente que la mecánica cuántica, incluyendo las “matemáticas” de Heisenberg, predecían el comportamiento de los átomos. Pensaba que la nueva ciencia era valiosa, sólo que no estaba completa. De hecho, Einstein nominó a Heisenberg para el premio Nobel a la primera oportunidad tras la conferencia Solvay, en 1928, y también en 1931 y 1932. En la nominación de 1931 escribió: “Esta teoría contiene sin duda un trozo de la verdad última”. Heisenberg ganó el premio Nobel de 1932.

Einstein y Heisenberg estaban unidos por razones distintas a la ciencia. Ambos experimentaron la persecución nazi, y ambos se vieron obligados a tomar decisiones difíciles durante la Segunda Guerra Mundial. En los años 30, toda la física moderna se convirtió en tabú en Alemania, a la que se llamaba despreciativamente “ciencia judía”. Practicarla era arriesgarse al ostracismo, y Heisenberg se encontró que, por el hecho de ser un fundador de la mecánica cuántica, se le prohibió el acceso a varias universidades alemanas. También se le puso la etiqueta de “judío blanco”, aunque él era luterano y “ario”, y se le emparejaba con Einstein en los ataques de los medios alemanes y de los físicos antisemitas alemanes Philipp Lenard y Johannes Stark. Un periódico nazi escribió en julio de 1937: “Heisenberg es sólo un ejemplo entre otros muchos […] Son todos representantes del judaísmo en la vida espiritual alemana que deben ser eliminados igual que los mismos judíos”. Si bien Heisenberg rechazaba la ideología nazi, era un nacionalista y, a pesar de todas las invitaciones que recibió por parte principalmente de científicos estadounidenses para emigrar a Estados Unidos, tomó la decisión de permanecer en Alemania. Por otra parte, una visita de la madre de Heisenberg a la madre del Reichsführer-SS Heinrich Himmler, acabó con los ataques a Heisenberg.

Aunque la relatividad era públicamente menospreciada por los Nazis, nadie ponía en duda la validez de E = mc2, la ecuación que haría posible la construcción de una bomba atómica. En 1939 Einstein estaba viviendo en los Estados Unidos y, sabiendo lo destructiva que una bomba como esa podría ser, escribió una carta al presidente Franklin Roosevelt advirtiéndole del peligro. Heisenberg, sin embargo, estaba aún en Alemania, y como físico con capacidades útiles se encontró de repente con el favor del gobierno nazi, y se le pidió que trabajase en la construcción de la bomba atómica. El hecho cierto es que Heisenberg pasó la mayor parte de la guerra trabajando en física nuclear, pero para usos energéticos, no armamentísticos. Años más tarde Heisenberg diría que esto fue así debido a sus propias manipulaciones: había hecho su contribución a la paz mediante la confusión, quitando importancia delante de los nazis a los usos prácticos de una bomba como esa y llevándoles a creer que probablemente no podría hacerse. Heisenberg afirma que dijo a sus superiores que creía que la guerra habría terminado antes de que nadie pudiera construir una bomba. Sólo tenemos la versión de Heisenberg de esta historia. Hay quien no cree esta versión y afirma que Heisenberg intentó ocultar sus errores. Su fuerza estaba en la física teórica, no en la experimentación, quizás creyese realmente que no podía construirse. Sea como fuese, el hecho cierto es que después de la guerra trabajó para limitar el uso de las armas nucleares y para reparar las relaciones entre Alemania y el resto del mundo.

La última vez que Einstein y Heisenberg se encontraron fue en 1954 en Princeton, pero sus diferencias científicas eran las mismas de siempre. Heisenberg trató una vez más de convencer a Einstein de la validez de los planteamientos de la mecánica cuántica, pero Einstein fue contundente: “No me gusta vuestro tipo de física. Pienso que os va muy bien con los experimentos…pero no me gusta”. Einstein murió en 1955, sin admitir la mecánica cuántica que Heisenberg simbolizaba.

Tras la muerte de Einstein, Heisenberg escribió un artículo en el que atacaba a Einstein por su carta a Roosevelt, diciendo que un auténtico pacifista nunca debería haber iniciado el esfuerzo para construir una bomba que terminaría resultando en la muerte de miles. Pero culpar a Einstein por haber empezado, de alguna manera, el Proyecto Manhattan parece evidentemente injusto, a la par que incierto. El artículo de Heisenberg estaba probablemente más inspirado por los temas pendientes que tuviese con Einstein, sugiriendo que había más problemas entre los dos de lo que Heisenberg nunca llegase a admitir.

viernes, 27 de noviembre de 2009

Muerte térmica del universo, eterno retorno y fluctuaciones del caos.


A finales del siglo XIX, un pequeño pero influyente grupo de físicos comenzó a cuestionar los supuestos filosóficos básicos de la mecánica newtoniana. Llegaron a poner en duda la misma idea de átomo. Según el físico austriaco Ernst Mach las teorías científicas no deberían depender de asumir la existencia de cosas (como los átomos) que no se podían observar directamente.

Los críticos de la teoría cinética de los gases, que se fundamenta en la existencia de los átomos y a la que Ludwig Boltzmann había terminado de dar forma en 1871 desarrollando un trabajo previo de James Clerk Maxwell, basaron sus argumentos en aparentes contradicciones entre la teoría cinética y la segunda ley de la termodinámica. Una de esas aparentes contradicciones es la paradoja de la recurrencia.

La paradoja de la recurrencia tiene una conexión con una idea que apareció frecuentemente en las filosofías de la antigüedad y que actualmente está presente en la visión del mundo del hinduismo: el mito del “eterno retorno”. De acuerdo con este mito, la historia del mundo es cíclica. Todos los acontecimientos históricos terminarán repitiéndose, en ciclos sin fin. Dada una cantidad de tiempo suficiente, incluso la materia de la que los humanos estamos hechos terminará volviéndose a reunir por azar. Entonces la gente que ha muerto volverá a nacer y a vivir de nuevo la misma vida que ya vivió. El filósofo alemán Friedrich Nietzsche estaba convencido de la veracidad de esta idea.

La paradoja de la recurrencia comienza con el hecho de que el número de moléculas en el universo es finito, por lo que sólo hay un número finito de disposiciones posibles de esas moléculas. Por lo tanto, si el tiempo continúa infinitamente, llegará un momento en el que la misma disposición de moléculas aparecerá otra vez. En algún momento, pues, todas las moléculas del universo estarán exactamente en un estado en el que ya estuvieron una vez. Todos los acontecimientos que se sucedan a partir de este momento serán exactamente la repetición de otros que ya ocurrieron a partir de esa disposición la primera vez que se dio. Es decir, si en un sólo instante del universo éste se repite, a partir de aquí toda la historia del universo se repite en ciclos sin fin. Por lo tanto, la energía no se vería completamente disipada tal y como requiere la segunda ley de la termodinámica, lo que se conoce como muerte térmica del universo. Nietzsche afirmaba que esta visión del eterno retorno prevalecía sobre la segunda ley de la termodinámica y la muerte térmica.

En la época de la que estamos hablando, en 1889, el físico teórico y matemático francés Henri Poincaré publicó un teorema sobre la posibilidad de la recurrencia en sistemas mecánicos. Según Poincaré, aunque el universo pudiera alcanzar una muerte térmica, en último término volvería a la “vida” de nuevo:

Un universo finito, gobernado por las leyes de la mecánica, pasará siempre por un estado [arbitrariamente] muy próximo a su estado inicial. Por otra parte, según las leyes experimentales aceptadas [de la termodinámica] (si se les atribuye validez absoluta, y si se quieren llevar sus consecuencias hasta el extremo), el universo tiende hacia un cierto estado final, que nunca abandonará. En este estado final, que sería una especie de muerte, todos los cuerpos estarían en reposo a la misma temperatura.

[…] las teorías cinéticas pueden sacarse ellas mismas de esta contradicción. El mundo, según ellas, tiende primero hacia un estado en el que permanece durante mucho tiempo sin cambio aparente; y esto es consistente con la experiencia; pero no sigue así para siempre, […] solamente está en ese estado por un tiempo enormemente largo, un tiempo que es mayor cuanto más numerosas son las moléculas. Este estado no sería la muerte final del Universo, sino una especie de sueño, del que se despertará tras millones de siglos”.

De acuerdo con esta teoría, para ver pasar la energía de un cuerpo frío a uno caliente no será necesario ni tener la agudeza visual, ni la inteligencia ni la destreza del demonio de Maxwell; será suficiente un poco de paciencia. Poincaré estaba dispuesto a aceptar la posibilidad de que se violase la segunda ley después de mucho tiempo. Otros se negaron a admitir esta posibilidad.

Ernst Zermelo, un matemático alemán, usó la paradoja de la recurrencia para atacar la visión mecanicista del mundo. Zermelo mantenía que la segunda ley de la termodinámica era una verdad absoluta, por lo que cualquier teoría que llevase a predicciones inconsistentes con ella debía ser falsa. Esta refutación no aplicaría sólo a la teoría cinética de los gases sino a cualquier teoría que se basase en la suposición de que la materia está compuesta de partículas que se mueven siguiendo las leyes de la mecánica clásica.

Boltzmann había previamente negado la posibilidad de que pudiesen existir recurrencias y hubiera seguido negando su certeza, rechazando el determinismo postulado en la argumentación de Zermelo y, por extensión, en la de Poincaré. Sin embargo, admitió que las recurrencias son completamente consistentes con el punto de vista estadístico: son fluctuaciones, que es prácticamente seguro que ocurran si esperas el tiempo suficiente. Por lo tanto, ¡el determinismo lleva a las mismas consecuencias cualitativas que se puede esperar de una secuencia aleatoria de estados! Por consiguiente, nuestro universo podría ser una mera fluctuación del caos, como aventuró Boltzmann y, ya puestos, nada impediría que el resultado de esa fluctuación fuese directamente una entidad autoconsciente [en la imagen].

[Esta entrada es la contribución de Experientia docet al I Carnaval de la Física ]

jueves, 26 de noviembre de 2009

Oímos por la piel.


Es conocido desde hace años que también oímos con nuestros ojos. En un estudio histórico publicado en 1976, los investigadores daban cuenta de sus hallazgos de que las personas integraban señales tanto auditivas como visuales, como los movimientos de la boca y de la cara, cuando escuchaban un discurso.

Ese estudio, y muchos que siguieron, suscitaron esta cuestión fundamental acerca de la percepción del discurso: Si los humanos pueden integrar diferentes señales sensoriales, ¿lo hacen por aprendizaje (viendo miles de caras parlantes a lo largo del tiempo) o es algo innato, algo que la evolución ha grabado genéticamente?

Un nuevo estudio que se centra en un conjunto diferente de señales sensoriales se suma a un número creciente de pruebas que indican que esta integración es algo innato. En un artículo publicado en Nature, Bryan Gick y Donald Derrick, de la Universidad de la Columbia Británica (Canadá), informan de que la gente puede oír con su piel.

Los investigadores hicieron que una serie de voluntarios escuchasen sílabas habladas mientras estaban conectados a un dispositivo que lanzaba simultáneamente un soplido de aire en la piel de su mano o de su cuello. Las sílabas eran “pa” y “ta”, que la boca produce un breve soplido al pronunciarlas, y “ba” y “da”, que no lo produce. Encontraron que los sujetos que oían “ba” o “da” mientras se soplaba aire a su piel, percibían el sonido como “pa” o “ta”.

Estos descubrimientos son similares a los de 1976, en el que las señales visuales modificaban las auditivas: los sujetos escuchaban a una sílaba pero percibí otra porque estaban viendo una película de movimientos de la boca que correspondía a otra sílaba. En el estudio de Gick y Derrick las señales sensoriales de la piel modifican las que recibimos del oído, en definitiva nuestra piel es la que dice qué oímos.

El estímulo es muy sutil, lo que sugiere que es muy potente. Los humanos estamos integrando la información que proviene de la piel in ni siquiera ser conscientes de ello, lo que refuerza la idea de que la integración de las diferentes señales sensoriales es innata.

Por otra parte, los investigadores sugieren que puede que hayan otras señales que se están integrando durante la percepción del discurso: “somos unas máquinas perceptivas tan fantásticas que incorporamos toda la información disponible y la integramos a la perfección”.

Referencia:

Gick, B., & Derrick, D. (2009). Aero-tactile integration in speech perception Nature, 462 (7272), 502-504 DOI: 10.1038/nature08572

miércoles, 25 de noviembre de 2009

Terremoto en la investigación del Alzheimer: la beta amiloide es esencial para el cerebro.


La enfermedad de Alzheimer está causada, aparentemente, por la acumulación de placas de una proteína llamada beta amiloide [en la imagen, en azul], por lo que la eliminación de esta proteína se ha convertido en el objetivo de casi toda la investigación que busca una cura para esta enfermedad. Pero, y este es un gran pero, según los resultados que publica en Nature neuroscience el equipo de Inna Slutsky de la Universidad de Tel Aviv (Israel) la beta amiloide es esencial para el correcto funcionamiento del cerebro.

Según el estudio, la proteína, producto del metabolismo normal de la célula, es esencial para la transmisión de información entre las neuronas. Si se eliminase del cerebro, como muchos fármacos en desarrollo pretenden hacer, podría causar problemas en la capacidad de aprendizaje y memorización, así como una mayor y más rápida acumulación de placas en la enfermedad de Alzheimer.

Por otra parte el estudio de Slutsky et ál. también supone un salto hacia delante en la comprensión de la causa y desarrollo de la enfermedad, por lo que abre otras vías de investigación para nuevos fármacos más efectivos.

El equipo de Slutsky se centró en el estudio de tomos cerebrales de ratones sanos y en redes neuronales in vitro, también de ratones. Los investigadores pudieron determinar que había una cantidad óptima de beta amiloide necesaria para mantener las neuronas funcionando correctamente. Si este equilibrio se veía perturbado, siquiera ligeramente, la efectividad de la transferencia de información entre las neuronas se veía enormemente disminuida.

Por otra parte, el estudio sugiere que la proteína beta amiloide pertenecería a un grupo de moléculas endógenas que regulan la transmisión sináptica normal en el hipocampo, una región del cerebro que participa en las funciones memorísticas y de aprendizaje. La regulación es dependiente de la actividad de la neurona y actúa sobre la liberación de las vesículas de neurotransmisores.

Tras la aparición de beta amiloide extracelular la actividad sináptica se incrementa a través de un ciclo de retroalimentación positiva. La interrupción de dicho ciclo, que aparecería con los primeros síntomas del Alzheimer, podría ser la clave para una posible intervención terapéutica. Cuando una puerta se cierra, se abre una ventana. En cualquier caso, esperemos confirmaciones antes de tirar todo a la basura y empezar de nuevo.

Referencia:

Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009). Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses Nature Neuroscience, 12 (12), 1567-1576 DOI: 10.1038/nn.2433

martes, 24 de noviembre de 2009

La intuición matemática como instinto básico de los primates (2ª parte y última).


La intuición matemática como instinto básico de los primates (1ª parte).

Dando pruebas de la herencia compartida, Cantlon y Brannon fueron capaces de demostrar que los monos suman por intuición de la misma forma que lo hacen los humanos [3, de la 1ª parte]. La intuición de los animales es casi tan buena como la nuestra, y sigue las mismas reglas, conforme la razón entre los números se hace mayor, es más probable que los monos escojan el resultado correcto. Y cuando los monos usan su intuición matemática se basan en la misma región alrededor del surco intraparietal en la que nos apoyamos nosotros.

Los monos pueden aprender también a reconocer las grafías de los números, una habilidad que los niños desarrollan alrededor de los 5 años. Con objeto de hacer la conexión entre la grafía 2 y un par de objetos se activa una región del cerebro de los niños llamada córtex prefrontal dorsolateral. Esta región es como una herrería para forjar asociaciones entre signos y conceptos. Una vez que la asociación se ha creado los niños reconocen las grafías de los números rápidamente, sin que se vuelva a activar el córtex prefrontal dorsolateral.

Los monos pueden aprender, con suficiente entrenamiento a señalar un 4 si ven cuatro puntos en una pantalla. Andreas Nieder (Tubinga; Alemania) y sus colegas han descubierto [5] que, al igual que los niños, los monos usan el córtex prefrontal dorsolateral para hacer esas asociaciones. Incluso han encontrado neuronas individuales en esta región que se activan fuertemente tanto ante la presencia de cuatro puntos como de la grafía 4.

Pero, ¿comprende realmente un mono lo que la grafía 4 significa? Para averiguarlo, Nieder y su antigua alumna Ilka Diester entrenaron monos para un nuevo experimento [6]. Los monos aprendieron a pulsar una palanca, tras lo cual veían un número seguido de otro. Si lo números coincidían, los monos podían soltar la palanca para conseguir un chorrito de zumo. Si los números no coincidían, los monos tenían que mantener la palanca pulsada hasta que aparecía un nuevo número, que siempre coincidía.

Los monos aprendieron ha soltar la palanca cuando los números coincidían y a mantenerla pulsada para los números que no casaban. Si hubiesen tenido éxito simplemente fijándose en la forma, cabría haber esperado que confundiesen grafías similares, como 1 y 4, ambas hechas a partir de líneas rectas. Pero Diester y Nieder pudieron comprobar que los monos se equivocaban de otra manera. Era más probable que los monos se confundiesen cuando aparecían grafías que representaban valores numéricos próximos: el recto 1 con el curvilíneo 2, por ejemplo. No sólo eso, los monos empleaban más tiempo en soltar la palanca si la coincidencia era entre números grandes que si era entre pequeños, otra señal de que los monos estaban respondiendo a la cantidad, no a la forma.

Para los neurocientíficos, estos estudios plantean una cuestión importante. Si los monos tienen unos fundamentos tan sólidos para los números, ¿por qué no pueden realizar matemáticas superiores? Encontrar una respuesta nos ayudaría a comprender qué es lo que nos permite a los humanos ser mucho mejores con los números que el resto de animales. Tanto Nieder como Cantlon han especulado con la idea de que la diferencia está en nuestra capacidad para comprender símbolos, lo que nos permitiría transformar nuestra intuición de los números en una comprensión precisa. Cuando decimos “2” queremos decir una cantidad exacta, no “probablemente 2 pero puede que 1 ó 3”. Podemos entonces aprender reglas para manejar números exactos rápidamente, para después generalizar estas reglas, dando paso así a principios matemáticos generales. Los otros primates, careciendo de cerebros simbólicos como los nuestros, necesitan miles de intentos para aprender una nueva regla.

Los recientes estudios con monos y niños arrojan nueva luz sobre los huesos con muescas de los que hablábamos al principio (1ª parte). Los primeros números registrados coinciden con la aparición de muchas otras expresiones de pensamiento abstracto, desde flautas de hueso a grabados o figuras de mujeres (venus). Antes de todo esto, los humanos habrían concebido los números de la forma en que los monos (y los niños pequeños) todavía lo hacen hoy. Pero una vez que nuestros antepasados comenzaron a unir su instinto natural para los números con una nueva capacidad para comprender símbolos, todo cambió. Las matemáticas llegaron a ser el idioma de las ideas, de las mediciones, y de las posibilidades de la ingeniería. El resto de la civilización fue sólo una cuestión de deducción.

Referencias:

[5]

Nieder, A. (2009). Prefrontal cortex and the evolution of symbolic reference Current Opinion in Neurobiology, 19 (1), 99-108 DOI: 10.1016/j.conb.2009.04.008

[6]

Diester, I., & Nieder, A. (2010). Numerical Values Leave a Semantic Imprint on Associated Signs in Monkeys Journal of Cognitive Neuroscience, 22 (1), 174-183 DOI: 10.1162/jocn.2009.21193

lunes, 23 de noviembre de 2009

La intuición matemática como instinto básico de los primates (1ª parte).


En una revisión publicada en Trends in Cognitive Sciences [1], Jessica Cantlon, actualmente en la Universidad de Rochester, y sus colaboradores, analizan las últimas investigaciones que apuntan a que la capacidad para las matemáticas es innata en los prrimates, incluido el hombre.

Tradicionalmente se ha pensado que aprendemos a usar los números de la misma forma que aprendemos a conducir un coche o a escribir un SMS usando uno o dos pulgares. Desde este punto de vista, los números son una especie de tecnología, una invención del hombre a la que nuestro cerebro multiuso se puede adaptar. La historia parece apoyar esta idea. La prueba más antigua del uso de números tiene más de 30.000 años: huesos y cuernos con muescas que son consideradas por los arqueólogos como marcas de cuentas. Los usos más complejos de los números aparecieron mucho más tarde, coincidiendo con la aparición de otras tecnologías. En Mesopotamia apareció la aritmética básica hace alrededor de 5.000 años. El cero no se encuentra hasta el año 876 de la era común. Los estudiosos árabes establecieron los rudimentos del álgebra en el siglo IX; el cálculo no apareció completo hasta finales del XVII.

A pesar de la aparición tardía de las matemáticas superiores, hay cada vez más pruebas de que los números no son realmente una invención reciente. Nuestra especie parece tener una habilidad innata para las matemáticas, una habilidad que nuestros ancestros de hace 30 millones de años ya habrían tenido.

Si la habilidad para las matemáticas fuese realmente innata debería poder detectarse de alguna manera en los niños pequeños. Esto es precisamente lo que hizo el equipo encabezado por Veronique Izard (Harvard; EE.UU.) en un estudio con recién nacidos [2]. Izard y sus colegas reprodujeron sonidos de arrullo a los bebés, con un número variable de sonidos en cada ensayo. A los bebés se les mostraba después un conjunto de formas en una pantalla de ordenador, y los científicos medían cuanto tiempo la miraban (la cantidad de tiempo que un bebé pasa mirando un objeto es proporcional a su interés). Los recién nacidos miraban consistentemente más tiempo a la pantalla cuando el número de formas coincidía con el número de sonidos que acababan de escuchar. Este estudio de Izard et ál. sugiere que los recién nacidos tienen una comprensión básica de los números. No sólo eso, esta comprensión es abstracta: pueden transferirla entre los sentidos, de sonidos a imágenes.

La intuición matemática se desarrolla conforme crecemos, pero es difícil seguir su desarrollo porque conforme los niños crecen se basan tanto en sus habilidades innatas como en lo que aprenden. Por ello los investigadores han tenido que ingeniar métodos para forzar a la gente a que se base sólo en la intuición. Elizabeth Brannon (Duke; EE.UU.), coautora de la revisión, en colaboración con Cantlon, realizó un experimento [3] en el que sujetos adultos veían un conjunto de puntos en una pantalla de ordenador durante medio segundo, seguido por otro segundo conjunto. Después de una pausa, los participantes podían ver dos conjuntos de puntos uno al lado del otro. A partir de ese momento disponían de poco más de un segundo para señalar el conjunto suma de los dos anteriores.

A los participantes les suele ir muy bien en ese tipo de tests, lo que les provoca una sensación extraña: saben que tienen razón, pero no saben cómo obtuvieron la respuesta. Incluso en los niños pequeños que todavía no saben contar, según estudios similares, el cerebro procesa los números automáticamente. Desde la infancia hasta la ancianidad, la intuición matemática sigue dos reglas consistentemente. Una es que la gente obtiene mejores resultados cuando los números son pequeños que cuando son grandes. La otra es que se obtienen mejores resultados cuando la diferencia entre los números es mayor. En otras palabras, es más probable que la gente distinga entre 2 y 4 que entre 6 y 8, aunque la diferencia sea la misma. Conforme vamos acumulando años, nuestra intuición se hace más precisa. Otros experimentos han demostrado que un bebé de 6 meses puede distinguir con seguridad entre números cuya razón sea 2 (como 8 y 4). A los 9 meses la razón cae a 1,5 (12 y 8, por ejemplo). Y cuando es adulto la razón es sólo 0,1. El hecho de que las dos reglas se mantengan en todos los casos sugiere que usamos el mismo algoritmo mental a lo largo de nuestras vidas.

Los escáneres cerebrales que usan imágenes por resonancia magnética (MRI, por sus siglas en inglés) y tomografía por emisión de positrones (PET, por sus siglas en inglés) están arrojando algo de luz en cómo nuestros cerebros llevan a cabo este algoritmo. Los neurocientíficos han encontrado que, cuando nuestro cerebro realiza problemas de intuición matemática, un conjunto de neuronas cerca de la parte más alta del cerebro, que rodea el surco intraparietal, se activa consistentemente. Y cuando nos enfrentamos a problemas más difíciles, cuando los números son mayores o más próximos, esta región se activa aún más.

Los investigadores sospechan que la intuición matemática que estas neuronas ayudan a producir constituye el cimiento sobre el que se construye el resto de las matemáticas más sofisticadas. Justin Halberda (Johns Hopkins; EE.UU.) y sus colegas realizaron un estudio [4] sobre intuición matemática con un grupo de adolescentes de 14 años. Algunos mostraron mayor intuición que otros. Un análisis de los resultados escolares demostró que los que demostraban mejor intuición habían obtenido mejores resultados en los exámenes estandarizados de matemáticas desde preescolar.

El hecho de que los niños posean una intuición matemática mucho antes de que empiecen el colegio implica que nuestros ancestros también la tenían. De hecho, investigaciones recientes revelan que nuestros ancestros la tenían incluso antes de que pudiesen andar erguidos. Se ha encontrado que muchos primates, incluyendo los monos rhesus, pueden resolver algunos de los problemas matemáticos que nosotros podemos [3]. Dado que los monos y los humanos divergieron hace 30 millones de años, la intuición matemática es al menos así de antigua.

(continúa en la 2ª parte)

Referencias:

[1]

CANTLON, J., PLATT, M., & BRANNON, E. (2009). Beyond the number domain Trends in Cognitive Sciences, 13 (2), 83-91 DOI: 10.1016/j.tics.2008.11.007

[2]

Izard, V., Sann, C., Spelke, E., & Streri, A. (2009). Newborn infants perceive abstract numbers Proceedings of the National Academy of Sciences, 106 (25), 10382-10385 DOI: 10.1073/pnas.0812142106

[3]

Cantlon, J., & Brannon, E. (2007). Basic Math in Monkeys and College Students PLoS Biology, 5 (12) DOI: 10.1371/journal.pbio.0050328

[4]

Halberda, J., Mazzocco, M., & Feigenson, L. (2008). Individual differences in non-verbal number acuity correlate with maths achievement Nature, 455 (7213), 665-668 DOI: 10.1038/nature07246

domingo, 22 de noviembre de 2009

Einstein y...Robert Millikan


Robert Millikan fue uno de los científicos más famosos de su época. Ganó el premio Nobel de física en 1923 por la medición de la carga del electrón y por el trabajo experimental que confirmó la teoría de Einstein de que la luz estaba constituida por partículas. Irónicamente, la intención de Millikan era demostrar que la teoría era falsa, e insistió durante años en que su trabajo sólo confirmaba que las teorías de Einstein eran sólo valiosas herramientas matemáticas, no que probase la existencia de los fotones.

En 1896, Millikan fue contratado por la Universidad de Chicago, y estaba todavía allí en 1905 cuando Einstein publicó un artículo en el que afirmaba que la única manera de explicar cómo la luz cede energía a los electrones es asumiendo que la luz está hecha de partículas, de forma análoga a la corriente eléctrica. Einstein encontró que la energía de una partícula de luz es igual a su frecuencia multiplicada por una constante, h, que terminó llamándose constante de Planck. Millikan ya tenía una reputación de gran experimentador, tras haber sido capaz de medir la carga del electrón, demostrando así que los electrones eran realmente entes físicos con propiedades consistentes, y que la electricidad es un fenómeno atómico. Pero sólo porque aceptase que los electrones eran partículas no significaba que creyese que la luz podía ser algo parecido. Millikan conocía muy bien los experimentos en los que se demostraba que la interacción de dos rayos de luz tenía como resultado lo que uno podía esperar si fuesen ondas. Los científicos llevaban 50 años convencidos de que la luz era una onda, y Millikan era uno de ellos. Por lo que se dispuso a demostrar que la teoría de Einstein era errónea.

El experimento de Millikan medía la energía de los electrones que eran emitidos por una placa sobre la que incidía un rayo de luz. Sin embargo, para su sorpresa, los resultados parecían confirmar la teoría de Einstein de la naturaleza corpuscular de la luz. No sólo eso, el experimento permitió la determinación más precisa hasta la fecha del valor de la constante de Planck. Décadas más tarde, cuando Millikan describía su trabajo, todavía asomaba un punto de frustración: “Empleé diez años de mi vida comprobando la teoría de Einstein de 1905 y, en contra de todas mis expectativas, me vi forzado a afirmar su verificación sin ambages a pesar de lo irrazonable que era”.

Con todo, Millikan todavía no aceptaba que su experimento probase que la luz estuviese compuesta por cuantos; sólo admitiría que las matemáticas de Einstein correspondían con sus experimentos. En su artículo sobre el efecto fotoeléctrico, Millikan escribió: “la ecuación fotoeléctrica de Einstein…parece que predice exactamente en todos los casos los resultados observados…Sin embargo la teoría semicorpuscular [sic.] por la que Einstein llegó a su ecuación parece actualmente completamente insostenible”. Millikan también describió la teoría de Einstein sobre las partículas de luz como una “hipótesis atrevida, por no llamarla insensata”. Millikan sabía que sin las ecuaciones de Einstein no se podía explicar el fenómeno de la fotoelectricidad usando el punto de vista clásico sobre la luz, por lo que sabía que algo tenía que cambiar, pero la introducción arbitraria de los fotones no era, para su gusto, la respuesta. Además Millikan trabajaba con Michelson (su director de tesis), que creyó toda su vida en la existencia de un éter a través del que las ondas de luz viajaban (a pesar de que sus propios experimentos demostraban su no existencia), por lo que se reforzaban mutuamente en su creencia en la naturaleza ondulatoria de la luz como la única posible.

Mientras la comunidad científica seguía estos desarrollos, en 1919 Einstein y Millikan aparecieron mencionados juntos en la prensa popular. Ese noviembre se hizo público que las observaciones astronómicas del eclipse solar de ese año confirmaban la teoría general de la relatividad de Einstein, lo que le dio fama instantánea y una serie de artículos en el New York Times. En alguno de ellos aparecía un Einstein altanero que afirmaba que sólo doce personas en el mundo comprendían su teoría. Días después de esto hubo, como era de esperar, una reacción furibunda, y un editorial del propio periódico, del 13 de noviembre, decía: “La gente que se ha sentido un poco molesta porque se les ha dicho que no podrían entender la nueva teoría, ni siquiera si se les explicase con todo cuidado y amabilidad, sentirán alguna clase de satisfacción al saber que la solidez de la deducción de Einstein ha sido puesta en cuestión por R.A. Millikan”.

A pesar de todo, mientras Millikan continuaba negando la existencia de los fotones, su “confirmación” fue un factor que ayudó a que Einstein recibiese el premio Nobel en 1921. En 1923, Millikan recibiría él mismo el premio “por su trabajo sobre la carga elemental de la electricidad y sobre el efecto fotoeléctrico”. En su conferencia con motivo de la recepción del premio, sin embargo, Millikan volvió a mencionar que “el concepto de cuantos de luz localizados a partir del cual Einstein consiguió su ecuación debe ser considerado aún como lejos de estar establecido”.

Nunca hubo, sin embargo, animosidad personal entre los dos científicos, y se respetaban muchísimo el uno al otro. En 1921, Millikan aceptó un trabajo en lo que llegaría a llamarse Instituto de Tecnología de California (Caltech), y se dispuso a convertirlo en una institución puntera en investigación. Millikan ofreció a Einstein un puesto en el Caltech en 1923, pero el físico alemán lo rechazó. Einstein sí aceptó una invitación a visitar los Estados Unidos y Millikan actuó como su anfitrión. Finalmente (y todavía no está muy claro por qué, aunque puede que influyese el creciente antisemitismo en Alemania) en 1931, Einstein aceptó un puesto para enseñar a tiempo parcial en el Caltech.

En 1950, a los 82 años, Millikan escribió su autobiografía. Para entonces toda la comunidad científica había aceptado la existencia de los fotones, incluido Millikan. En el libro, Millikan no menciona que tardó décadas en aceptar las teorías de Einstein. Probablemente nunca sabremos si lo que Millikan contaba era realmente cómo recordaba los acontecimientos o fue la vanidad la que venció y se negó a reconocer lo que claramente había sido un error.

sábado, 21 de noviembre de 2009

El caso de la extinción de la megafauna del Pleistoceno: nuevas pruebas.


Cada vez que los humanos modernos alcanzaron un nuevo continente en su expansión a partir de su África original hace 50.000 años, ya fuese Australia, Europa o las Américas, toda la gran fauna desapareció rápidamente.

Esta prueba circunstancial que aporta el registro fósil sugiere que el primer logro de los humanos al llegar a un nuevo territorio era cazar todos sus animales de gran tamaño hasta la extinción. Pero los apologetas de la especie humana han intentado encontrar un chivo expiatorio, desde el cambio climático hasta el impacto de asteroides. ¿Quién o qué fue el culpable de la extinción de la megafauna del Pleistoceno?

Un análisis cuidadoso de varios depósitos lacustres de Wisconsin y Nueva York aporta nuevas pruebas a este debate. Un equipo liderado por Jacquelyn Gill, de la Universidad de Wisconsin, ha descubierto una secuencia de acontecimientos que descarta algunas explicaciones y constriñe severamente otras. Sus resultados se publican en Science.

La primera prueba documentada por el equipo de Gill es el ritmo de extinción en América del Norte. Las especies extinguidas fueron todas las especies de más de 1.000 kilos y la mitad de las que pesaban más de 30 kilos.

Los investigadores encontraron una forma muy ingeniosa de seguir el ritmo de desaparición: el hongo de las heces Sporormiella. Este hongo tiene que pasar a través del sistema digestivo para completar su ciclo vital, y sus esporas se encuentran en las heces de los animales. Midiendo el número de esporas en los depósitos lacustres, los investigadores pudieron documentar la desaparición paulatina de los grandes animales desde hace 14.800 hasta hace 13.700 años.

La siguiente pista que surgió de los depósitos lacustres fue el polen de nuevas plantas incluyendo árboles de hojas anchas como el roble. Esta nueva comunidad de plantas parece haberse desarrollado porque se vio libre de ser el pasto de los grandes mamíferos.

La tercera prueba que Gill et ál. encontraron fue una capa de finos granos de carbón vegetal, presumiblemente de fuegos que siguieron a la acumulación de madera.

Esta secuencia de acontecimientos tiene implicaciones directas sobre qué pudo ser el responsable de las extinciones. Primero, descarta como culpable el impacto de un asteroide o cometa que ocurrió hace 12.900 años; los animales se habían muerto mucho tiempo antes.

También excluye la versión estándar de una explicación muy de moda últimamente, la pérdida de hábitat debida al cambio climático. La extinción de los grandes animales ocurrió antes de la emergencia de las nuevas comunidades de plantas. Un aspecto del clima no queda descartado completamente, un cambio directo de temperatura.

La tercera sospechosa en quedar libre es la cultura Clovis, que apareció por primera vez hace unos 13.000 años, bastante después de la extinción. El pueblo Clovis ha sido considerado durante mucho tiempo los primeros habitantes de América del Norte, que alcanzaron probablemente cruzando el puente terrestre que unía Siberia y Alaska durante la última Edad de Hielo.

Entonces, ¿exculpan estos nuevos datos a los humanos del asesinato del mamut de América del Norte? No exactamente. Se han encontrado huesos de mamut de hace 14.000 años descarnados con utensilios humanos en Wisconsin. Evidentemente había personas antes de los Clovis en América del Norte, y es posible que cazaran hasta la extinción de los grandes animales.

Pero Gill y sus colegas aún no quieren declarar culpables a los humanos: todavía no se puede eliminar completamente el cambio climático, como veíamos más arriba. Tampoco está claro si el pueblo pre-Clovis tenía la tecnología para abatir animales del tamaño de un mamut; podrían muy bien haberse alimentado de animales muertos por otra causa.

El caso sigue abierto.

Referencia:

Gill, J., Williams, J., Jackson, S., Lininger, K., & Robinson, G. (2009). Pleistocene Megafaunal Collapse, Novel Plant Communities, and Enhanced Fire Regimes in North America Science, 326 (5956), 1100-1103 DOI: 10.1126/science.1179504

viernes, 20 de noviembre de 2009

Algunos sonidos durante el sueño ayudan a la memoria (esta vez con base científica).


Científicos de la Universidad Northwestern en Evanston (EE.UU.) liderados por Ken A. Paller informan en Science de que la reproducción de sonidos específicos durante el sueño consigue que se pueda recordar mejor lo que se ha aprendido antes de quedarse dormido.

La ciencia nunca le ha dado mucho crédito a las afirmaciones de que se puede aprender inglés o chino poniendo una grabación de fondo mientras se duerme. Si se aprende algo de esa manera sería porque el sonido de la lección despierta al alumno, no porque los nombres y verbos calen en la mente dormida. Al menos este era el punto de vista hasta ahora. El estudio al que hacemos referencia está provocando un debate muy interesante al cuestionar este punto de vista, al menos en parte.

El trabajo de Paller y sus colaboradoress aborda el estímulo auditivo durante el sueño de una forma diferente y permite comprender mejor cómo funciona el cerebro mientras duerme. No sólo eso, puede que sea útil a las personas que estudian lenguas, se preparan para un examen o necesitan memorizar un texto.

Los investigadores enseñaron a un grupo de voluntarios a colocar 50 imágenes en sus posiciones correctas en una pantalla de ordenador. Cada imagen iba acompañada por un sonido relacionado: un maullido para el gato, el sonido del rotor para el helicóptero, etc.

A continuación, 12 de los sujetos durmieron un rato, durante el que 25 de los 50 sonidos se reprodujeron con ruido blanco. Cuando despertaron, ninguno se había dado cuenta de que se habían reproducido los sonidos ni pudieron adivinar cuáles lo habían sido. Y sin embargo, casi todos recordaban con mayor precisión las localizaciones en el ordenador de las imágenes asociadas con los 25 sonidos que se habían oído mientras dormían.

Este estudio aporta una nueva dimensión a la teoría de que el sueño permite procesar y consolidar los recuerdos. Los voluntarios durmieron 90 minutos o menos, lo suficiente para entrar en la fase de ondas lentas que corresponde al sueño profundo, pero no para llegar a la fase REM. La idea de los investigadores de interrumpir el sueño en este punto se basaba en la hipótesis de que es en la fase de ondas lentas en la que el cerebro refuerza los recuerdos de hechos, mientras que en el sueño REM el cerebro clasificaría y organizaría los recuerdos.

Si bien un estudio de 2007 encontró que las personas que olían esencia de rosa mientras aprendían una tarea recordaban la tarea mejor si también inhalaban esencia de rosa mientras dormían, el nuevo estudio sugiere que los recuerdos de datos concretos pueden ser señalados explícitamente para ser reforzados.

Los investigadores afirman que las principales aportaciones del estudio son su contribución a la comprensión del proceso de fabricación de recuerdos del cerebro y reforzar lo importante que es dormir un número suficiente de horas.

El origen del estudio estaba en explorar si las claves auditivas podían ayudar a reforzar la terapia cognitivo conductual para las personas con depresión o ansiedad. En otras áreas el método probablemente no podrá enseñar nueva información, pero sí reforzar lo ya aprendido. La panacea del opositor.

[Imagen: Sleeping Jane de Iskra Beličanska]

Referencia:

Rudoy, J., Voss, J., Westerberg, C., & Paller, K. (2009). Strengthening Individual Memories by Reactivating Them During Sleep Science, 326 (5956), 1079-1079 DOI: 10.1126/science.1179013

jueves, 19 de noviembre de 2009

Un mecanismo molecular que retrasa el envejecimiento y las enfermedades asociadas.


Es conocido que una dieta restrictiva provoca un retraso en el proceso de envejecimiento y en el desarrollo de enfermedades relacionadas con la edad, como la de Alzheimer. ¿Cómo actúa a nivel molecular la dieta restrictiva para producir estos efectos? En un artículo publicado en PLoS Biology, un equipo de la Escuela de Medicina del Hospital Monte Sinaí de Nueva York (EE.UU.) dirigido por Charles Mobbs da una parte de la respuesta. Los investigadores han determinado que, dentro de unos márgenes, lo importante es que se restrinja el número de calorías, más que cómo se restrinjan, para obtener sus efectos sobre el metabolismo de la glucosa y su contribución al estrés oxidativo. Por otra parte una dieta alta en calorías podría acelerar las enfermedades relacionadas con la edad promoviendo el estrés oxidativo.

Mobbs et ál. han descubierto que la dieta restrictiva induce un factor de transcripción llamado proteína de unión a CREB (CBP, por sus siglas en inglés), que controla la actividad de los genes que regulan la función celular. El equipo también descubrió una restricción en la dieta óptima, estimada en el equivalente a una reducción del 30 por ciento en mamíferos, que incrementa la vida más de un 50 por ciento a la vez que ralentiza el desarrollo de patologías relacionadas con la edad similares a la enfermedad de Alzheimer.

La primera parte del estudio se centró en el nemátodo (gusano redondo) Caenorhabditis elegans alterado genéticamente para que desarrolle unos síntomas parecidos a la enfermedad de Alzheimer. Mobbs y sus colegas redujeron la ingesta del gusano diluyendo las bacterias que C. elegans consume como alimento. En este tipo de gusanos, la beta amiloide humana, que forma las placas en el cerebro características de la enfermedad de Alzheimer, se expresa en el músculo, lo que hace que los gusanos se vuelvan paralíticos conforme envejecen. Este modelo permitió a los investigadores medir fácilmente cómo la duración de la vida y la enfermedad mejoraban simultáneamente por la dieta restrictiva.

El equipo encontró que cuando la restricción en la dieta se mantenía a lo largo de toda la etapa adulta del gusano, la vida se alargaba un 65 por ciento y la parálisis relacionada con el Alzheimer disminuía un 50 por ciento. La restricción calórica actuaba activando la CBP y cuando los investigadores bloqueaban esta activación, bloqueaban todos los beneficios de la dieta restrictiva.

En la segunda parte del estudio, Mobbs y colaboradores comprobaron qué ocurría si en vez de disminuir la ingesta calórica, el modelo, en este caso ratones, ha llevado una dieta alta en calorías que le ha provocado una diabetes, una enfermedad que afecta al metabolismo de la glucosa. El resultado encontrado es que la diabetes reduce la activación de la CBP, lo que lleva a los investigadores a concluir que una dieta alta en calorías que lleve a la diabetes tendría el efecto opuesto a la restricción calórica y aceleraría el envejecimiento.

Mobbs lanza la idea de que la restricción calórica induce la CBP bloqueando el metabolismo de la glucosa (esto es una hipótesis), responsable del estrés oxidativo, un proceso celular que lleva al daño de los tejidos y favorece el crecimiento de células cancerígenas.

Es interesante señalar que la restricción calórica dispara la CBP en tanto en cuanto la restricción se mantenga, lo que sugiere que sus efectos protectores se borran si se vuelve a una dieta normal. La CBP responde a los cambios en los niveles de glucosa en horas, lo que indica que las comunicaciones genéticas responden rápidamente a las fluctuaciones de la dieta.

[En la imagen, C. elegans por Ian Chin-Sang y Tony Papanicolaou; Queen's University (Canadá)]

Referencias:

Zhang, M., Poplawski, M., Yen, K., Cheng, H., Bloss, E., Zhu, X., Patel, H., & Mobbs, C. (2009). Role of CBP and SATB-1 in Aging, Dietary Restriction, and Insulin-Like Signaling PLoS Biology, 7 (11) DOI: 10.1371/journal.pbio.1000245

miércoles, 18 de noviembre de 2009

Más grande no es necesariamente mejor: la inteligencia de los insectos pone en perspectiva la de los vertebrados.


Los animales con cerebros más grandes no son necesariamente más inteligentes. Entonces, ¿para qué sirven? En un trabajo de revisión publicado en Current Biology, Lars Chittka, del Queen Mary College (Reino Unido), y Jeremy Niven, de la Universidad de Cambridge (Reino Unido), analizan la información disponible, incluyendo la referente a insectos, y apuntan algunas respuestas muy interesantes.

Los intentos de relacionar el tamaño del cerebro con el comportamiento y la cognición en raras ocasiones han tenido en cuenta los datos de insectos y se ha limitado a los vertebrados. La investigación ha demostrado repetidamente que los insectos son capaces de algunos comportamientos inteligentes que anteriormente se pensaba que eran exclusivos de animales más grandes. Las abejas, por ejemplo, pueden contar, categorizar objetos similares como perros o caras de personas, comprender “igual” y “diferente” y diferenciar entre formas simétricas y asimétricas.

De lo anterior ya se puede sacar una primera conclusión. El tamaño corporal es la forma más sencilla y mejor para predecir el tamaño del cerebro de un animal; sin embargo, no podemos afirmar que el tamaño se correlacione positivamente con el comportamiento inteligente.

Las diferencias en el tamaño del cerebro entre animales son extremas: el cerebro de una ballena puede pesar hasta 9 kilos (con unos 200 millones de células nerviosas), y los cerebros humanos varían entre 1,25 y 1,45 kilos (con unos 85 millones de células nerviosas). El cerebro de una abeja pesa 1 miligramo y contiene menos de 1 millón de células nerviosas.

Aunque algunos incrementos en el tamaño del cerebro realmente afectan a la capacidad para el comportamiento inteligente, muchas diferencias de tamaño solamente existen en regiones cerebrales específicas. Esto se ve a menudo en animales con sentidos muy desarrollados (como la vista o el oído) o con una habilidad muy desarrollada para realizar movimientos muy precisos. El incremento de tamaño permite al cerebro funcionar con mayor detalle, con una resolución más fina, con mayor sensibilidad o con mayor precisión: en otras palabras, con más de lo mismo.

Chittka y Niven concluyen que las investigaciones realizadas apuntan a que los animales necesitan un cerebro mayor simplemente porque hay más cosas que controlar. Por ejemplo, se necesitan más nervios y más grandes para mover músculos más grandes.

En los cerebros más grandes, según los autores, no se suele encontrar mayor complejidad, sino repeticiones sobre repeticiones de los mismos circuitos neuronales. Esto puede añadir detalles a las imágenes o sonidos que se recuerdan, pero no añade un ápice de complejidad. Por usar una analogía con los ordenadores, los cerebros más grandes podrían en muchos casos tener discos duros más grandes, no necesariamente mejores procesadores.

Esto quiere decir que mucho del pensamiento “avanzado” puede hacerse con un número muy limitado de neuronas. Los modelos por ordenador muestran que inclusa la consciencia podría generarse con un número muy pequeño de circuitos neuronales, que en teoría podrían entrar caber en el cerebro de un insecto. De hecho, los modelos sugieren que contar podría conseguirse con sólo unos cuantos centenares de células nerviosas y con sólo unas miles podría bastar para generar la consciencia.

Darwin intuyó lo que ahora revela la investigación. Escribió en 1871 en “El origen del hombre, y la selección en relación al sexo” lo siguiente: Es cierto que puede haber una extraordinaria actividad con una masa de materia nerviosa extremadamente pequeña; así los maravillosamente diversos instintos, poderes mentales y afectos de las hormigas son bien conocidos, y sin embargo sus ganglios cerebrales no llegan a un cuarto de la cabeza de un alfiler pequeño. Bajo este punto de vista, el cerebro de una hormiga es uno de los átomos de materia más maravillosos del mundo, incluso más que el cerebro del hombre.

[En la imagen, estructura del cerebro de la abeja. Tomada del Atlas virtual del cerebro de la abeja / Universidad Libre de Berlín]

Referencia:

Chittka, L., & Niven, J. (2009). Are Bigger Brains Better? Current Biology, 19 (21) DOI: 10.1016/j.cub.2009.08.023

martes, 17 de noviembre de 2009

Las barreras invisibles de Lagrange.


La investigación está revelando una estructura oculta en los líquidos y gases que guía el movimiento de todo lo que es susceptible de desplazarse en su seno, de la polución a los aviones. Hablamos de las estructuras coherentes de Lagrange.

La conexión entre un erudito del siglo XVIII llamado Joseph-Louis Lagrange y el problema de aterrizar con seguridad en el aeropuerto internacional de Hong Kong puede no resultar evidente a primera vista. Pero existe. El aeropuerto de Hong Kong es famoso por los aterrizajes difíciles y movidos, a veces abortados, que provocan los flujos de aire que vienen de las montañas cercanas. Aunque se ha instalado tecnología láser a lo largo de las pistas para monitorizar los cambios en la velocidad del viento y poder prevenir de esta forma a los pilotos, no es suficiente. Lo que hace falta es una mejor comprensión de la propia teoría de los vientos.

Y aquí es donde interviene Lagrange. Fue un pionero en el estudio de los fluidos en movimiento (entre otras muchas cosas), pero sus ideas sobrepasaban la capacidad de cálculo disponible en su época. Hoy día, con el acceso a superordenadores para ayudar con los cálculos, es posible explorar sus ideas completamente. Lo que está surgiendo es un cuadro de la dinámica de fluidos más sutil y más complejo de lo que se podía haber soñado hace una década. La atmósfera y el océano están, por lo que parece, dominados por barreras invisibles que han venido en llamarse estructuras coherentes de Lagrange (LCS, por sus siglas en inglés). Las LCS gobiernan el movimiento de todo, desde las trayectorias de los aviones a la distribución de la polución, pasando por las migraciones de las medusas.

Para comprender lo que es una LCS imaginemos la muchedumbre en una estación de trenes o metro de las grandes. Habrá gente llegando y gente yéndose usando diferentes medios. Sea lo que sea lo que haga, la gente irá y vendrá de distintos andenes, taquillas, tiendas, baños. El resultado es el caos, pero un caos estructurado. Lo que surge es un patrón cambiante de barreras entre grupos de personas con diferentes objetivos. Estas barreras son LCS. Son intangibles, inmateriales y serían indetectables si los pasajeros dejasen de moverse. Pero son lo suficientemente reales como para ser tratadas matemáticamente.

Cualquiera que haya sido arrastrado por una muchedumbre en la dirección que no quería conoce de primera mano una de las características principales de las LCS: forman una barrera al intercambio entre grupos. Si cambiamos a los humanos por las moléculas de aire o agua tenemos un fluido caótico. Y resulta que es más fácil estudiar el comportamiento de estos fluidos centrándose en las barreras que en las masas de fluido que esas barreras separan.

El estudio de la teoría de las LCS lo comenzó hace unos diez años George Haller, entonces en la Universidad de Brown (EE.UU.). Había estado trabajando en el campo de moda (matemática) de la teoría del caos, definida por alguno como una explicación a la búsqueda de un problema, cuando se encontró con un problema apropiado en forma de una montaña de datos acumulados por varios científicos atmosféricos y oceánicos.

Últimamente Haller, ahora en la Universidad McGill (Canadá), se dedica a aplicar junto a sus colaboradores la teoría lagrangiana al problema del despegue y aterrizaje de aviones en condiciones difíciles [1]. Los láseres en las pistas hacen un poco de radares. No pueden ver las moléculas del aire directamente pero sí son capaces de seguir las partículas de aerosol movidas por las corrientes de aire. El efecto Doppler (con el que estamos familiarizados por ser el responsable del cambio de tono en el sonido de la bocina de una locomotora que pasa) permite conocer las velocidades de estas partículas, y los ordenadores de Haller son capaces de analizar estos datos en función de las teorías de Lagrange para descubrir las LCS que dirigen sus movimientos, y el patrón de corrientes ascendentes y descendentes resultante.

Las predicciones iniciales realizadas a partir de los cálculos se acercan bastante a los movimientos reales arriba o abajo de los aviones que aterrizan en Hong Kong y, lo que es más importante, el sistema pone de manifiesto áreas de turbulencia que los métodos tradicionales no detectan. Si todo sigue igual de bien los resultados se incorporarán al sistema de control de tráfico del aeropuerto dentro de unos meses.

Las LCS también son útiles en el mar. François Lekien de la Universidad Libre de Bruselas (Bélgica) en colaboración con Jerry Marsden, del Instituto de Tecnología de California (EE.UU.), ha usado mediciones de radar para hacer con el océano lo que Haller ha hecho con el aire. En este caso el objetivo era predecir el destino de los contaminantes [2].

Los radares de Lekien apuntan a las aguas de la bahía de Monterrey, en California. De nuevo el efecto Doppler permite a su ordenador ver el siempre cambiante patrón lagrangiano en la bahía. Estos datos, una vez elaborados, permiten predecir en un momento dado qué regiones de la bahía llevarán los productos contaminantes a mar abierto y cuáles los confinarán en la costa. Esta información podría facilitar a las autoridades averiguar cuándo es seguro permitir operaciones con riesgo de vertido, como la reparación de buques cisterna

Proyectos similares al de Lekien se están llevando a cabo en Fort Lauderdale (Florida; EE.UU.) y cerca de Brest (en la costa occidental francesa), unas zonas costeras famosas por el peligro para los petroleros. El análisis lagrangiano podría predecir el comportamiento de posibles derrames de crudo con más facilidad. Este análisis del movimiento marino también podría resultar útil a la hora de rescatar a personas cuyos barcos se hayan averiado o en localizar retos de naufragios.

El estudio de las LCS también tiene su utilidad en zoología. Por ejemplo, John Dabiri, del Instituto de Tecnología de California, ha usado la técnica para estudiar el comportamiento de caza de las medusas [3]. Ha demostrado cómo partes del océano están temporalmente a salvo de ellas porque no pueden atravesar las barreras invisibles de Lagrange.

Las LCS pueden aparecer a cualquier escala. Lo que sirve para un aeropuerto o una bahía puede ampliarse para un océano, o el aire encima de él, o reducirse para el flujo bajo el ala de un avión o el casco de un barco.

El resultado es que Haller y sus discípulos han creado una nueva forma de mirar al mundo. Han demostrado que las fronteras entre las cosas son a menudo tan importantes como las propias cosas. Y también han mandado un recordatorio de que la más abstracta de las matemáticas puede algunas veces ser tremendamente práctica.

Referencias:

[1]

W. Tang, P. W. Chan, & G. Haller, Accurate extraction of LCS over finite domains, with application to flight safety analysis over Hong Kong International Airport, CHAOS, pendiente de publicación, (2009). PDF

[2]

C. Coulliette, F. Lekien, J. Paduano, G. Haller & J. Marsden, Optimal pollution mitigation in Monterey Bay based on coastal radar data and nonlinear dynamics, Enviromental Science and Technology 41 (2007) 6562-6572. DOI:10.1021/es0630691. PDF

[3]

Peng J, Dabiri JO (2009) “Transport of inertial particles by Lagrangian coherent structures: application to predator-prey interactions in jellyfish feeding,” Journal of Fluid Mechanics 623: 75-84. DOI:10.1017/S0022112008005089. PDF