viernes, 30 de abril de 2010

La falta de rigor en la comunicación de la ciencia: el caso del hielo en 24 Themis.


Existen millones de asteroides en el cinturón de asteroides que se encuentra entre Marte y Júpiter. Aparece publicada la confirmación de que hay agua en forma de hielo y moléculas orgánicas en uno de los grandes, llamado 24 Themis, en dos artículos [1][2] en Nature . Podría ser una prueba más de que el agua de la Tierra, necesaria para el origen de la vida tal y como la entendemos, hubiese llegado al planeta a bordo de meteoritos.

Lo anterior es la realidad. Lo que ha aparecido en los medios, una búsqueda simple en internet lo demuestra, es distinta: “Se descubre por primera vez hielo de agua en un asteroide” y esto es, simplemente, falso. Esta es la noticia real, si noticia puede llamarse: que se han publicado dos artículos en Nature.

La reproducción sin contrastar de las notas de prensa, escritas para la propaganda que no para la ciencia, por los distintos medios, lleva a inexactitudes, por no llamarlas manipulaciones o directamente mentiras, que insensibilizan al público frente a lo realmente importante y hace parecer que la ciencia avanza a saltos, en vez de por la acumulación de pequeños descubrimientos. Se prefiere la espectacularidad en los titulares a la veracidad

En este caso, los estudios confirman los hallazgos que hicieron públicos Rivkin y Emory en la conferencia Asteroids, Comets, Meteors 2008 celebrada entre el 14 y el 18 de julio de 2008 en Baltimore (EE.UU.) [LPI Contribution No. 1405, paper id. 8099].

Por si esto fuese poco, el equipo de Campins ya proporcionó la confirmación en Confirming water ice on the surface of asteroid 24 Themis, presentación dada en la reunión de la American Astronomical Society’s Division for Planetary Sciences celebrada entre el 4 y el 9 de octubre de 2009 en Fajardo (Puerto Rico), de lo que ya se hizo eco la prensa (cayendo en la misma trampa), véase por ejemplo aquí y aquí.

Si en la información sobre ciencia no hay rigor, ¿cómo esperar que los lectores tengan una idea aproximada de lo que es hacer ciencia?

Referencias:

[1]

Rivkin, A., & Emery, J. (2010). Detection of ice and organics on an asteroidal surface Nature, 464 (7293), 1322-1323 DOI: 10.1038/nature09028

[2]

Campins, H., Hargrove, K., Pinilla-Alonso, N., Howell, E., Kelley, M., Licandro, J., Mothé-Diniz, T., Fernández, Y., & Ziffer, J. (2010). Water ice and organics on the surface of the asteroid 24 Themis Nature, 464 (7293), 1320-1321 DOI: 10.1038/nature09029

jueves, 29 de abril de 2010

Carisma, religiosidad e hipnosis.


Supongamos que realmente admiras a alguien. Has oído cosas maravillosas de su inteligencia, su talento, su capacidad para cambiar las cosas. Y entonces vas a una intervención pública suya, y tienes esta experiencia extraña. Su voz se mete en tu cabeza; escalofríos recorren tu espalda; te sorprendes asintiendo a todo lo que dice. Cuando finalmente deja de hablar y el aplauso se apaga, sales finalmente del trance. Parece como si su carisma hubiese tenido un profundo efecto sobre ti.

Pero, ¿realmente es así? En un estudio [1] publicado en Social Cognitive and Affective Neuroscience se concluye que es exactamente al contrario.

El experimento en sí no puede ser más simple. Se reclutaron a 36 participantes, la mitad de los cuales se identificaban como cristianos muy religiosos (la mayoría pertenecientes al movimiento pentecostal, que cree en los carismas como el don de lenguas o la capacidad de sanación) y la otra mitad como no creyentes. Los participantes religiosos no sólo creían en el dios cristiano, sino que rezaban frecuentemente, creían en el poder curativo de la oración, así como en la existencia de individuos a los que su dios concede poderes sanadores especiales. Los no creyentes no creían, obviamente, en nada de esto.

Al comienzo del experimento a los sujetos se les había dicho de que lo que se estaba estudiando los efectos sobre el cerebro de la oración de intercesión (un tipo de oración en la que el que ora se dirige a su dios a favor de otra persona). A continuación, cada uno escuchó 18 oraciones diferentes leídas por tres locutores masculinos (como condición de control, los participantes también escucharon las grabaciones de textos no religiosos pero con estructura similar a las oraciones).

Antes de cada oración de 30 segundos, a los participantes se les dijo que la persona que estaban a punto de escuchar era o un no creyente, o un cristiano ordinario o un cristiano famoso por sus poderes de sanación. Lo cierto era que los tres locutores eran cristianos “normales”.

Mientras escuchaban, los sujetos eran sometidos a escáneres por resonancia magnética funcional (fMRI). Estos escáneres muestran un mapa de la actividad e inactividad en el cerebro, basándose en cuanta sangre y oxígeno suministran las células glías que los rodean a determinados grupos de neuronas.

Entre los no creyentes no había diferencia significativa en la actividad cerebral fuese cual fuese el tipo de grabación que escuchasen o el locutor. Entre las personas religiosas la cosa era diferente.

En las personas religiosas el contraste entre los escáneres cuando escuchaban a personas que ellos creían no creyentes y los obtenidos cuando el que creían que hablaba era un creyente con poderes curativos era muy acusado. Esta diferencia era especialmente llamativa en el córtex prefrontal dorsolateral, el córtex prefrontal medial, la unión tempo-parietal, el córtex temporal inferior y la región orbitofrontal lateral.

¿En qué consistían estas diferencias? Básicamente descensos en la respuesta de los niveles de sangre y oxígeno. En otras palabras, cuando los sujetos se suponía que estaban escuchando las palabras de un cristiano con poderes curativos había una actividad mucho más baja en las áreas del cerebro mencionadas. Los sujetos religiosos después calificaron a estos locutores como poseedores de un alto nivel de carisma, así como que fueron los que consiguieron que sintiesen la presencia de su dios más intensamente.

Habrá quien diga que las pruebas de fMRI no son siempre precisas, y el escepticismo nunca está de más. Pero también es necesario señalar que los investigadores afirman que las diferencias son enormes (“massive”).

¿Y todo esto qué significa? Los mayores descensos en la actividad se producen en las zonas del cerebro llamadas red ejecutiva frontal y red cognitiva social. La primera es la que se encarga de la organización de alto nivel, la evaluación y el análisis de la información. La segunda es esencial a la hora de percibir y comprender las intenciones y sentimientos de los demás. En definitiva, que hay razones para pensar que cuando los sujetos religiosos escuchaban a alguien que ellos percibían como carismático (aunque el locutor no hiciese ningún esfuerzo especial en aparecer especialmente persuasivo) de hecho desconectaban las partes de sus cerebros responsables de juzgar lo que oían.

Lo más fascinante de todo es que se encuentra una respuesta similar en las personas hipnotizadas. [2] [3]

Puede que si eres ateo te estés sonriendo por dentro pensando en lo “ingenua” que parece ser la gente religiosa. Pero no hay que alegrarse tanto todavía. Lo que se ha demostrado experimentalmente en este estudio de verdad es cómo nuestras expectativas acerca del carisma (o autoridad, o simplemente ser “especial”) de otra persona pueden modificar la capacidad del cerebro para procesar y juzgar la información de entrada. Y todos estamos sujetos a esas expectativas frente a los estereotipos de autoridad o preeminencia: médicos, jueces, profesores, policías, etc…Y lo más grave es que esta sujeción no es sólo para asimilar y creer la información que nos dan, también para obedecer hasta extremos increíbles [4].

Referencias:

[1]

Schjoedt, U., Stodkilde-Jorgensen, H., Geertz, A., Lund, T., & Roepstorff, A. (2010). The power of charisma--perceived charisma inhibits the frontal executive network of believers in intercessory prayer Social Cognitive and Affective Neuroscience DOI: 10.1093/scan/nsq023

[2]

Gruzelier, J., Gray, M., & Horn, P. (2002). The involvement of frontally modulated attention in hypnosis and hypnotic susceptibility: cortical evoked potential evidence Contemporary Hypnosis, 19 (4), 179-189 DOI: 10.1002/ch.256

[3]

Posner, M., & Rothbart, M. (2010). Brain states and hypnosis research☆☆☆ Consciousness and Cognition DOI: 10.1016/j.concog.2009.11.008

[4]

Milgram, S. (1963). Behavioral Study of obedience. The Journal of Abnormal and Social Psychology, 67 (4), 371-378 DOI: 10.1037/h0040525

miércoles, 28 de abril de 2010

De cómo sentimos la temperatura.


Un estudio publicado en Nature Neuroscience [1] por un equipo del Instituto de Investigación Scripps (EE.UU.) describe el mecanismo molecular que nos permite percibir la temperatura procedente de un foco de calor. Para entenderlo tendremos que hablar de lo picante que está el chile.

El chile (chili), guindilla o ají contiene capsaicina, (8-metil-N-vanillil-6-nonenamida, C18H27NO3) y otros compuestos similares, que estimulan los receptores de calor y dolor de la epidermis, provocando así una irrigación sanguínea más intensa, sudoración y, por lo tanto, una disminución de la temperatura corporal.

Por otra parte, los humanos y otros animales vertebrados usan neuronas sensoriales especializadas para detectar la temperatura, la presión y otros estímulos físicos en la piel. Estas neuronas se localizan en la médula espinal y sus axones se prolongan hasta la piel y otros órganos. En la superficie de estos axones hay proteínas que forman canales iónicos que permiten el paso de iones del interior al exterior de la neurona y viceversa. Algunos de estos canales iónicos actúan como sensores de temperatura: cuando se alcanza determinada temperatura se abren permitiendo la entrada de iones en la neurona, lo que cambia la diferencia de potencial en la membrana celular, siendo esta señal eléctrica la que neurona transmite al cerebro.

La existencia de neuronas especializadas para frío y calor se ha conocido durante años, pero lo que no se sabía era qué moléculas “sentían” la temperatura y enviaban la señal a la neurona de que debía informar al cerebro. En 1997 [2] la cosa cambió cuando se pudo demostrar que el canal catiónico TRPV1 [en la imagen] se abre cuando la temperatura está por encima de 42 ºC. Este canal puede ser activado por varios estímulos, entre ellos la capsaicina del chile. Esta característica es la que ha sido empleada ahora por los investigadores del Scripps para descubrir cual es el mecanismo molecular de funcionamiento del TRPV1.

Había dos teorías para explicar la activación de los canales iónicos en respuesta a la temperatura. Basándose en el parecido con los canales iónicos activados por el voltaje, la primera teoría proponía que la sensibilidad para el voltaje estaría tan ajustada que las variaciones en la temperatura provocarían pequeñas variaciones en el voltaje que, a su, vez, desencadenaría la apertura del canal. Por otro lado, la segunda teoría proponía que estos canales tendrían una estructura modular y, por tanto, un dominio específico que permitiría su activación por la temperatura.

El equipo de investigadores usó una aproximación al problema sencilla pero muy laboriosa. La idea era generar mutaciones del TRPV1 que afectasen a un solo aminoácido y después comprobar cuáles de estas mutaciones impedía que la proteína siguiese siendo sensible a la temperatura pero, eso sí, permitiese su activación por la capsaicina. Se generaron y comprobaron 8.500 mutaciones.

Los resultados indicaban que las mutaciones que tenían los efectos buscados se concentraban en una zona de la proteína, la región del poro exterior, lo que apoya la idea de que existe un “dominio sensor de temperatura”

El equipo descubrió que el TRPV1 tiene dos maneras de abrir el canal: por un breve período de tiempo, de sólo un milisegundo, o por un período relativamente largo, de alrededor de 10 milisegundos. Las mutaciones que alteraban la sensibilidad a la temperatura interferían con las aperturas de larga duración, pero no con las cortas. Los investigadores creen, a la vista de estos resultados, que el dominio de la zona del poro externo contribuye a la termosensibilidad de TRPV1 estabilizando el estado abierto.

Nuestra capacidad para sentir la temperatura está íntimamente relacionada con nuestra capacidad para sentir dolor, la mejor comprensión de estas proteínas puede ser crucial para el desarrollo de fármacos que puedan activarlas o bloquearlas, creando analgésicos más eficaces.

Referencias:

[1]

Grandl, J., Kim, S., Uzzell, V., Bursulaya, B., Petrus, M., Bandell, M., & Patapoutian, A. (2010). Temperature-induced opening of TRPV1 ion channel is stabilized by the pore domain Nature Neuroscience DOI: 10.1038/nn.2552

[2]

Caterina MJ, Schumacher MA, Tominaga M, Rosen TA, Levine JD, & Julius D (1997). The capsaicin receptor: a heat-activated ion channel in the pain pathway. Nature, 389 (6653), 816-24 PMID: 9349813

martes, 27 de abril de 2010

Magnesio: ¿la panacea energética?


El almacenamiento de la energía es uno de los principales obstáculos para la adopción masiva de fuentes alternativas a los combustibles fósiles o la energía nuclear. Las baterías pueden llegar a ser muy grandes y lentas para cargarse. El hidrógeno, que puede ser producido electrolíticamente a partir del agua y usado para alimentar células de combustible, es difícil de manejar. Pero puede que haya una alternativa: el magnesio. El magnesio metálico es altamente reactivo y almacena grandes cantidades de energía. La investigación se encamina ahora a encontrar formas de extraer la energía del magnesio de una forma controlada.

En Canadá, por ejemplo, se ha desarrollado una célula metal/aire que usa agua y aire para que reaccionen con el magnesio, en forma de ánodo metálico, para generar electricidad. En Israel se ha creado una versión basada en magnesio de una batería ión-litio recargable, ideal para el almacenamiento de electricidad proveniente de fuentes renovables. En California (EE.UU.) se está desarrollando un sistema por el que los coches pueden generar hidrógeno sobre la marcha haciendo reaccionar magnesio con vapor. La reacción produce hidrógeno puro, apropiado como combustible, y deja como subproducto óxido de magnesio.

Pero no todo puede ser tan bonito. Si bien el magnesio es abundante, su producción no es ni barata ni limpia. Se emplean varios métodos industriales para obtenerlo, desde procesos electrolíticos a un método a alta temperatura que usa silicio como reductor del óxido de magnesio. En cualquier caso el coste energético es alto (40 MWh/ton). Este factor hace todo lo anterior inútil desde un punto de vista medioambiental si no fuese por Takashi Yabe del Instituto de Tecnología de Tokio.

Yabe está desarrollando un método, en fase de planta piloto, que sólo usa energía renovable. En concreto usa energía solar concentrada para alimentar un láser, que se emplea para calentar y quemar óxido de magnesio obtenido a partir de agua marina. En el mar hay suficiente magnesio como para proveer las necesidades energéticas del mundo durante los próximos 300.000 años. Se necesita un láser porque la energía solar concentrada por sí misma no puede alcanzar los 3.700 ºC necesarios. El láser también se emplea para evaporar agua del mar y extraer cloruro de magnesio que después se transforma en óxido de magnesio. El método se llama Ciclo de Inyección de Magnesio (MAGIC, por sus siglas en inglés).

El magnesio puro puede usarse entonces como combustible (su densidad de energía es alrededor de 10 veces la del hidrogeno). Cuando el magnesio se mezcla con agua produce calor, haciendo hervir el agua para producir vapor, que puede mover una turbina y generar de esta manera trabajo útil. Por si esto fuera poco la reacción también produce hidrógeno, que puede quemarse para producir más energía. Los subproductos de estas dos reacciones combinadas son agua y óxido de magnesio, que puede reincorporarse al ciclo mediante el láser.

Mg + H2O <-> MgO + H2 + q

2H2 + O2 <-> 2H2O + q´

Los problemas están en que los colectores solares necesarios tienden a ser muy grandes y costosos y que los láseres alimentados por energía solar suelen tener poca potencia. La solución de Yabe consiste en usar unas lentes de Fresnel, del tipo que se encuentra habitualmente en los faros de la costa para magnificar la luz de una manera que requeriría normalmente una lente mucho más gruesa. Otra aportación de Yabe es multiplicar el rendimiento del material del láser, granate de aluminio itrio dopado con neodimio. Normalmente sólo absorbe el 7% de la energía de la luz solar, pero cuando se le dopa con cromo este valor sube por encima del 67%.

Estos trabajos fueron publicados por Yabe y su equipo en 2006 en Applied Physics Letters. En este tiempo han seguido trabajando y mejorando el diseño. En la actualidad existe una planta piloto en Chitose, Japón, que tiene a Mitsubishi como socio. Es capaz de producir 80 vatios de potencia en el láser, lo suficiente como para cortar el acero y extraer un 70 % del magnesio del agua marina. El proyecto será comercialmente viable cuando la potencia del láser llegue a 400 vatios, lo que se espera que ocurra este año.

Referencia:

Yabe, T., Uchida, S., Ikuta, K., Yoshida, K., Baasandash, C., Mohamed, M., Sakurai, Y., Ogata, Y., Tuji, M., Mori, Y., Satoh, Y., Ohkubo, T., Murahara, M., Ikesue, A., Nakatsuka, M., Saiki, T., Motokoshi, S., & Yamanaka, C. (2006). Demonstrated fossil-fuel-free energy cycle using magnesium and laser Applied Physics Letters, 89 (26) DOI: 10.1063/1.2423320

lunes, 26 de abril de 2010

Telómero largo, memoria corta.


Un grupo de investigadores de varias universidades suecas, encabezado por Michael Wikgren publica en Neurobiology of Aging que los telómeros largos pueden asociarse en adultos y ancianos no dementes con una memoria más débil.

Las partes finales de los cromosomas (en gris en la imagen), los telómeros (en blanco), son importantes a la hora de proteger los genes que hay dentro. Cada vez que una célula se divide, estos telómeros se hacen más cortos. Tras múltiples divisiones celulares, los telómeros se hacen tan cortos que la célula o bien sufre una muerte programada (apoptosis) o pasa a un estado envejecido parecido a una invernación. Por lo tanto, las longitudes de los telómeros nos dan información sobre cuántas veces se han dividido las células en el pasado.

El estudio sueco es parte de un proyecto muy ambicioso de investigación sobre cómo la memoria cambia con el envejecimiento, el proyecto Betula. Este estudio, en el que participaron personas de edades entre los 41 y los 81 años, se centra en el estudio de si los individuos con diferentes variantes de apolipoproteína E (APOE) tenían diferentes longitudes teloméricas en sus células sanguíneas y si las variaciones en la longitud del telómero estaban relacionadas con la capacidad memorística, evaluada mediante pruebas de memoria.

La apolipoproteína E es una proteína con 299 aminoácidos de largo y transporta lipoproteínas, vitaminas liposolubles y colesterol hacia el sistema linfático y luego a la sangre. Es sintetizada principalmente en el hígado, aunque se ha encontrado también en otros tejidos, como el cerebro, el riñón y el bazo. En el sistema nervioso, los tipos de células que no son neuronas, mayormente los astrocitos y la microglía, son los principales productores de APOE.

Investigaciones anteriores habían puesto de manifiesto una conexión entre la variante epsilon 4 de la APOE (APOE4) y las enfermedades cardiovasculares y la demencia. También se había encontrado que esta variante incrementa el riesgo de un tipo de degradación de la memoria que se produce en los individuos de más edad que no padecen demencia. Esta degradación se produce en la memoria episódica que, simplificando, es la que almacena las experiencias vividas por la persona.

Los resultados no podían ser más interesantes ni suscitar más preguntas: los individuos con APOE4 tienen los telómeros más largos que aquellos con otras variantes de APOE; también se encontró que la diferencia en longitud del telómero entre APOE 4 y otras variantes se incrementaba conforme los individuos comparados eran más jóvenes. En el grupo que tenía la variante APOE 4 los individuos con los telómeros más largos eran los que peores resultados obtenían en las pruebas de memoria episódica pero no en otras pruebas.

La proteína APOE, como decíamos más arriba, juega un papel central en el transporte y metabolización de las grasas sanguíneas, pero las diferentes variantes parecen tener distintos efectos sobre otros procesos del cuerpo. La variante 4 está relacionada con peores grasas sanguíneas, más inflamación y un exceso de estrés oxidativo comparada con las variantes 2 y 3. Se ha demostrado que tanto la inflamación como el estrés oxidativo llevan a telómeros más cortos, por lo que resulta sorprendente que los individuos con APOE4 tengan telómeros más largos que los que tienen otras variantes.

Los telómeros más largos apoyan la idea de que las células han sufrido un menor número de mitosis (divisiones celulares) y que esa diferencia en longitud surgió en algún momento anterior al límite inferior de edad del estudio. Esta actividad mitótica reducida a edad temprana podría ser una explicación de la peor memoria episódica de los sujetos con variante 4 comparada con los individuos con las otras variantes.

Referencia:

Wikgren, M., Karlsson, T., Nilbrink, T., Nordfjäll, K., Hultdin, J., Sleegers, K., Van Broeckhoven, C., Nyberg, L., Roos, G., & Nilsson, L. (2010). APOE ε4 is associated with longer telomeres, and longer telomeres among ε4 carriers predicts worse episodic memory Neurobiology of Aging DOI: 10.1016/j.neurobiolaging.2010.03.004

sábado, 24 de abril de 2010

Einstein y...sus inventos.


Durante buena parte de su vida Albert Einstein, el físico teórico, se relacionó con inventores y él mismo fue uno de ellos. No solamente trabajó como examinador de patentes en la Oficina Federal de Patentes Suiza en Berna, en una época donde abundaban invenciones basadas en la electricidad (luz, comunicaciones, generación), sino que durante mucho tiempo fue citado como perito experto en casos de patentes (incluso cuando ya era famoso por su trabajo en física teórica). Además patentó e intentó comercializar sus propias invenciones. A lo largo de los años trabajaría en cualquier cosa, desde instrumentos para la medida de precisión del voltaje eléctrico a audífonos.

En 1906 Einstein publicó un artículo sobre cómo estudiar el movimiento browniano bajo los efectos de un campo eléctrico fluctuante. Comenzó a construir una Maschinchen, una “maquinita”, para probar sus ideas. En esa época, los mejores sistemas de medición de electricidad podían detectar solamente unas pocas milésimas de voltio, pero Einstein necesitaba medir menos de una milésima.

El hermano de su amigo de la Academia Olimpia Conrad Habicht, Paul, poseía una pequeña empresa de fabricación de instrumentos. Trabajando con Paul, construyó la máquina. En una carta a su amigo Max von Laue, Einstein decía: “No podrías evitar sonreír…si pudieras ver mi gloriosa chapucilla casera”. Einstein no patentó este invento; lo intentó pero no tuvo éxito porque no había fabricantes interesados en fabricarla.

A pesar de ello los hermanos Habicht le siguieron dando vueltas a la máquina y tras unos pocos años obtuvieron una patente para fabricarla. Desafortunadamente, no era muy precisa y la tecnología ya estaba obsoleta. Si bien Einstein no aparecía en la patente, los hermanos le dieron las gracias con una anotación en la que decía que los experimentos se realizaron “conjuntamente con A. Einstein en el laboratorio de la Universidad de Zúrich”. Muchos años después, cuando Paul murió, Einstein escribió a su hermano Conrad una carta de pésame en la que hizo referencia a esta colaboración: “Fue divertido, aunque no obtuviéramos nada útil”.

Tampoco salió nada útil de los intentos de Einstein de desarrollar un nuevo tipo de ala de avión. En el verano de 1915, en medio de sus artículos sobre la relatividad general, Einstein publicó uno breve, “Teoría elemental de ondas en agua y vuelo”, en el que proponía un perfil de ala “con joroba”. Pero nadie continuó el trabajo.

En 1903, un joven millonario llamado Hermann Anschütz- Kaempfe quería explorar el Polo Norte en submarino. Esto era arriesgado porque el submarino no podía emerger para orientarse y el casco metálico hacía inútil la brújula. Anschütz desarrolló un sistema giroscópico que podía ser una alternativa. En 1908 lo patentaba en Europa. Independientemente Elmer Sperry había desarrollado un dispositivo similar que patentó en Estados Unidos. Cuando en 1914 Sperry intentó vender el artefacto, bautizado como girocompás, a la marina de guerra alemana, Anschütz lo denunció por violación de patente. El tribunal nombró perito independiente a Einstein, que tras estudiar los equipos, respaldó la argumentación de Anschütz, que ganó el caso en 1915.

Tras la Primera Guerra Mundial, Anschütz y Einstein colaboraron estrechamente en el desarrollo de una versión mejorada del girocompás, que patentaron. Para 1930, prácticamente todo buque moderno del mundo tenía un girocompás. Einstein recibía por contrato el 3% de las ventas y un 3% de los ingresos por licencias. Irónicamente para un dispositivo que era usado por la marina del III Reich, las ganancias que generaba para Einstein iban a parar a una cuenta en Amsterdam y el dinero empleado en ayudar a científicos judíos a escapar de los nazis.

En 1927 Einstein se puso manos a la obra con otro invento en compañía de su colega Leo Szilard. Diseñaron una bomba frigorífica que no era mecánica sino electromagnética. Un metal líquido se movía en un sentido y el contrario dentro de un tubo cuando se veía afectado por un campo electromagnético alternante. La bomba era elegante conceptualmente hablando y, desde un punto de vista práctico, más silenciosa que los modelos existentes. Los dos hombres patentaron su invento en 1930 [en la imagen], y en los siguientes dos años consiguieron siete patentes más. Pero el invento quedó prácticamente en nada comercialmente hablando, porque la competencia, que nunca está quieta, había mejorado considerablemente las bombas basadas en gases por lo que no había necesidad de usar un equipo que usase metales potencialmente tóxicos. Muchos años después, en los inicios de los reactores nucleares de uso civil, se consideró seriamente la posibilidad de usar la bomba Einstein-Szilard pero no llegó a generalizarse su uso industrial.

Otro invento de Einstein fue una cámara de exposición automática desarrollada en 1936 con su amigo Gustav Bucky. Además, Einstein fue el coautor de artículos de contenido experimental sobre audífonos y membranas semipermeables para coloides.

Para saber más:

Einstein, Szilard y el taller de refrigeradores.

Einstein The Inventor.

viernes, 23 de abril de 2010

¿En qué se parecen un cerebro, un gusano y un microchip?


Unas especies animales aparecen y tienen éxito y continúan su evolución, mientras que otras terminan extinguiéndose. Con las tecnologías humanas pasa otro tanto. En el primer caso se debe a la presión del medio y sus variaciones y en el segundo a la presión económica de la competencia y las variaciones del mercado. ¿Llegará la similitud entre seres vivos y tecnología al extremo de encontrar las mismas soluciones a determinados problemas adaptativos? Un estudio publicado en PloS Computational Biology apunta a que sí.

El equipo de investigadores, que incluía neurocientíficos y especialistas en computación de EE.UU., Alemania y Reino Unido, encabezado por Edward Bullmore (Universidad de Cambridge, Reino Unido) ha encontrado las mismas soluciones de diseño para el procesamiento de la información en el cerebro humano, el sistema nervioso de un nemátodo (Caenorhabditis elegans, un gusano redondo) y el microprocesador. El equipo ha estudiado la estructura de las redes de conexiones y ha constatado la existencia de coincidencias sorprendentes.

El equipo de Bullmore usó para el estudio datos que en su mayoría estaban en el dominio público, incluyendo datos de imágenes por resonancia magnética de cerebros humanos, mapas del sistema nervioso del nemátodo y los planos de diseño de un microprocesador estándar. El análisis de estos datos reveló que cerebro, gusano y microchip compartían dos características estructurales básicas.

Por una parte los tres tienen una arquitectura de muñeca rusa, con los mismos patrones repitiéndose una y otra vez a diferentes escalas. Por otra, las tres estructuras siguen la regla de Rent; esta regla, que tiene su origen en el estudio de los circuitos integrados, se usa para describir la relación entre el número de elementos en un área dada y el número de conexiones entre ellos.

Estas similitudes podrían explicarse diciendo que representan la forma más eficiente de cablear (entendiendo por cable indistintamente neuronas o hilos metálicos) una red compleja en un espacio físico limitado, ya sea un cerebro humano tridimensional o un chip de ordenador bidimensional.

Esta relativamente alta complejidad conlleva, paradójicamente, un coste extra en el cableado físico. ¿Cómo podemos hablar entonces de estructuras eficientes? Pues porque hablamos de eficiencia económica (eficiente en costes) en términos de conexiones, lo que no implica necesariamente minimizar los costes de cableado. Los sistemas de procesado de la información tanto biológicos como artificiales pueden evolucionar para optimizar el compromiso entre coste físico y complejidad topológica, lo que resultaría en la aparición de principios similares de diseño modular y económico en diferentes clases de redes neuronales y computacionales.

Dos conclusiones pueden sacarse a raíz de este estudio. La primera es que se pueden aprender cosas interesantes sobre nuestra propia evolución estudiando la forma en que la tecnología se ha desarrollado, además de analizando organismos tan simples como un gusano. La segunda, y una vez más en la historia de la ciencia, el hombre recibe una dosis de humildad al apreciar que ni él ni su cerebro son tan excepcionales como habitualmente cree.

Referencia:

Bassett, D., Greenfield, D., Meyer-Lindenberg, A., Weinberger, D., Moore, S., & Bullmore, E. (2010). Efficient Physical Embedding of Topologically Complex Information Processing Networks in Brains and Computer Circuits PLoS Computational Biology, 6 (4) DOI: 10.1371/journal.pcbi.1000748

jueves, 22 de abril de 2010

¿Por qué el agua de las nubes no se congela?


¿Por qué no se congela el agua de las nubes? Siempre me lo he preguntado. Si están a una altitud superior a la de las nieves perpetuas de una montaña, o a la altura del avión en el que viajo y en cuyo exterior hay -20, -30 ó -50 ºC, ¿por qué no se solidifica el agua y cae?

Fijémonos en las nubes de la imagen, son nubes lenticulares (técnicamente Altocumulus lenticularis). Estas nubes son estacionarias, y se forman a grandes altitudes en zonas montañosas y aisladas de otras nubes. Se forman cuando una corriente de aire húmedo pasa sobre el pico de una montaña y la temperatura baja del punto de rocío. En las de la imagen, la temperatura es muy inferior al punto de rocío: a esa altitud es de menos de 10ºC bajo cero, y sin embargo no precipita en forma de nieve o granizo.

La respuesta habitual es que el agua está superenfriada, un estado (superfusión) en el que los líquidos no se solidifican ni siquiera por debajo de su punto de fusión normal. Hasta ahora esto era sólo un nombre para un hecho, pero no había una teoría convincente con base empírica que lo fundamentase. Ahora un equipo multidisciplinar liderado por Tobias Schülli del Instituto de Nanociencia y Criogenia de Francia ha encontrado una confirmación experimental de una de esas teorías. La investigación aparece publicada en Nature.

Los líquidos superenfriados están atrapados en un estado metaestable incluso a temperaturas muy por debajo de su punto de congelación. Este estado sólo puede alcanzarse en líquidos que no contengan gérmenes de cristalización, impurezas que puedan provocar el inicio del proceso. Las nubes a gran altitud son un buen ejemplo de esto: contienen gotitas de agua que, en ausencia de cristalitos de hielo que hagan de iniciadores, no forman hielo a pesar de las bajas temperaturas. En entornos más contaminados y en los procesos que se llevan a cabo en las industrias, siempre hay alguna impureza cristalina en contacto con el líquido que dispara el proceso de cristalización y, por tanto, la congelación. A este respecto el control del proceso de solidificación es importante para aplicaciones que van desde la prevención del granizo a procesos tecnológicos como la soldadura o la fundición de metales, o incluso el crecimiento de nanoestructuras semiconductoras.

La superfusión se descubrió alrededor de 1724 por Fahrenheit, pero incluso hoy el fenómeno es objeto de intensas discusiones. Durante los últimos 60 años la mera existencia de la superfusión a muy bajas temperaturas había llevado a especular con la idea de que la estructura interna de los líquidos podría ser incompatible con la cristalización. Uno de los modelos propone que una fracción significativa de los átomos en los líquidos se ordena en grupos de coordinación pentagonales. Pero para formar un cristal se necesita que la estructura pueda ser repetida periódicamente, llenando todo el espacio. Esto no es posible con una estructura pentagonal. Pensemos en dos dimensiones por un momento: yo puedo rellenar perfectamente un plano con sólo triángulos o rectángulos o hexágonos, pero no con pentágonos. Los pentágonos serían pues un obstáculo a la cristalización.

Hasta hoy no había una prueba experimental de que estas estructuras pentagonales estuviesen en la raíz de la superfusión. Y a la que ha obtenido el equipo de investigadores de Schülli se ha obtenido casi por casualidad. Los científicos estaban estudiando el crecimiento de nanocables semiconductores, algo aparentemente nada relacionado con nuestras nubes. Cuando estaban controlando la primera etapa de crecimiento de los nanocables se percataron de que la aleación de metal semiconductor que estaban usando permanecía líquido a una temperatura mucho más baja que su punto de cristalización, por lo que se decidieron a investigar el fenómeno.

Para hacerlo los investigadores pusieron en contacto un líquido muy particular, una aleación de oro y silicio (AuSi) con una superficie de silicio (111) [esto significa que el cristal de silicio, que es cúbico, se había sido cortado según el plano cristalográfico 111, para entendernos, en diagonal]. La superficie había sido tratada para que la capa más exterior presentase una disposición de los átomos pentagonal. Las mediciones confirmaron que el efecto de superenfriamiento intenso tenía lugar. Como control repitieron los experimentos con disposiciones atómicas triangulares y rectangulares, obteniendo que el superenfriamiento era mucho más débil. Por lo tanto, la ordenación pentagonal es muy probable que esté en el origen de por qué no se congelan las gotas de agua en las nubes.

Referencia:

Schülli, T., Daudin, R., Renaud, G., Vaysset, A., Geaymond, O., & Pasturel, A. (2010). Substrate-enhanced supercooling in AuSi eutectic droplets Nature, 464 (7292), 1174-1177 DOI: 10.1038/nature08986

miércoles, 21 de abril de 2010

Fuentes alternativas de combustible nuclear.


Uno de los argumentos que esgrimen de vez en cuando los partidarios de la energía nuclear es que las plantas térmicas convencionales que queman carbón liberan más radioactividad al ambiente que una central nuclear. La razón de este hecho estriba en que la ceniza que queda después de quemar el carbón contiene elementos radioactivos, básicamente uranio y torio.

Si esto es así, ¿por qué no considerar la posibilidad de investigar esas cenizas como una fuente de de combustible nuclear? Eso es exactamente lo que Sparton, una empresa de Toronto (Canadá), está haciendo. Ha firmado un acuerdo con la Corporación Nuclear China (CNNC, por sus siglas en inglés), la autoridad que supervisa las centrales nucleares en ese país, para recuperar uranio a partir de ceniza de carbón en una planta de Lincang, provincia de Yunnan.

El uranio se extrae habitualmente de menas que contengan al menos 1.000 partes por millón (1 kg por cada tonelada) del elemento. La ceniza de carbón de Lincang tiene una riqueza mucho menor, alrededor de 300 ppm. La parte positiva es que no es necesaria extracción alguna, lo que abarata los costes de forma significativa. Sparton afirma que la extracción del uranio tiene un coste de 77 dólares por kilo; el precio spot es de 90 dólares: el margen no es que sea espectacular, pero la operación es rentable después de todo.

El método Sparton de extracción de uranio consiste en añadir ácidos sulfúrico y clorhídrico a la ceniza, junto con agua, para hacer una pasta acuosa (slurry, en el argot). Con algunos tipos de ceniza también es necesario el uso de ácido nítrico. Los ácidos disuelven el uranio (y varias cosas más) separándolo de la parte no soluble de la ceniza. Hasta aquí nada que un estudiante de primero de químicas no sepa. Lo difícil es separar selectivamente el uranio de esta disolución de forma industrial.

El proceso Sparton usa un filtro de carbón vegetal, hecho a partir de cáscara de coco quemada, para atrapar las partículas que flotan y eliminar los compuestos orgánicos. La solución filtrada se pasa entonces por una resina de intercambio de iones (con gran superficie de intercambio). Esta resina, que es donde está la clave, atrapa selectivamente los iones de uranio, siendo capaz de separar del orden del 70% del uranio presente (según la empresa). El uranio se separa de la resina usando una disolución de carbonato de amonio, para después hacerlo precipitar en forma de torta amarilla, una mezcla de óxidos de uranio.

China, que lo que quiere es asegurarse su suministro energético, está buscando uranio donde sea mínimamente económico extraerlo: la escoria de las minas de oro y plata o los subproductos de la producción de fertilizante. No esta sola la CNNC en estas aventuras, la empresa proveedora de combustible nuclear Nukem comenzará dentro de poco la extracción a partir de fertilizante en Florida (EE.UU.).

Y ya puestos, ¿por qué no extraer uranio del agua del mar? Un químico del nivel de Fritz Haber ya intentó en los años 20 del siglo pasado extraer oro del agua del mar para pagar la deuda de la primera guerra mundial de Alemania, para concluir que la concentración era demasiado baja como para que fuese económico. El agua de mar contiene sólo 3 partes por mil millones de uranio, la mayor parte en forma de tricarbonato de uranilo. La buena noticia es que un intercambiador de iones selectivo sería capaz de separarlo. ¿Alguien se atreve?

Varias organizaciones, incluyendo la Agencia de la Energía Atómica de Japón y el Centro de Investigación Atómica Bhaba (India) lo están intentando. Sus métodos incluyen, pero no se limitan a, el uso de tiras de resinas intercambiadoras soportadas en estructuras de poliestireno para rigidizarlas. Se colocan en jaulas de alambre y se anclan en una corriente de agua marina. Después de un mes o dos, la resina se retira y se trata con ácido para disolver el tricarbonato de uranilo. La solución se trata para precipitar la torta amarilla.

De momento, este proceso cuesta una 10 veces más que la minería convencional, pero algunos países pueden considerar este un coste bajo si con ello garantizan el suministro de energía. Que nadie vaya a pensar que el uranio sea para cualquier cosa distinta a pacíficas centrales productoras de electricidad de uso civil…

martes, 20 de abril de 2010

La mayor eficiencia de los cerebros de los deportistas (2 de 2)


[Lee la primera parte]

Los genes pueden ser responsables de algunas diferencias de capacidad, pero incluso el prodigio con la mejor carga genética imaginable necesita claramente práctica, en cantidades considerables, para desarrollar el cerebro de un atleta. Tan pronto como alguien comienza a practicar un nuevo deporte, su cerebro comienza a cambiar, y el cambio continúa durante años. Científicos de la Universidad de Regensburg (Alemania) documentaron [3] el proceso realizando escáneres a personas que estaban aprendiendo a hacer juegos malabares. Tras una semana, los malabaristas ya estaban desarrollando materia gris extra en algunas zonas del cerebro. Sus cerebros continuaron cambiando durante meses.

La práctica no sólo cambia la anatomía del cerebro, también ayuda a diferentes regiones del cerebro a comunicarse entre sí. Determinadas neuronas refuerzan sus conexiones con algunas neuronas y las debilitan con otras. Al comenzar a practicar, las neuronas del córtex prefrontal están activas. Esa región es vital para el control de arriba a abajo, el que nos permite concentrarnos en una tarea y considerar todo un abanico de respuestas. Con la práctica, el córtex prefrontal deja de activarse. Nuestras predicciones se hacen más rápidas y precisas, por lo que no necesitamos tanta supervisión.

Hace ya algunos años Matthew Smith y Craig Chamberlin, por entonces en la Universidad de Alabama, estudiaron [4] la conexión entre la baja activación del córtex y la capacidad atlética. Hicieron que jugadores de fútbol, unos expertos y otros novatos, llevasen una pelota a través de un eslálon de conos. Al mismo tiempo, se les pedía a los jugadores que mirasen una pantalla colocada en una pared para ver qué forma aparecía. Incluso con esta tarea añadida, los jugadores expertos pasaban por el eslálon a casi toda velocidad. Por otra parte, los novatos lo hicieron mucho peor que cuando no estaban distraídos. Esta disparidad sugiere que el regatear no carga tanto el córtex prefrontal de los expertos, dejándolo libre para enfrentarse a otros retos.

Conforme el cerebro de los atletas se vuelve más eficiente aprende a evaluar una situación más rápidamente. En el cricket, por ejemplo, un lanzador puede hacer que una bola alcance los 160 kilómetros por hora, dándole al bateador escasamente medio segundo para adivinar su trayectoria. En 2006 Sean Müller, por aquel entonces en la Universidad de Queensland (Australia), y su equipo de colaboradores llevaron a cabo un experimento [5] para ver hasta qué punto un bateador de cricket podía anticipar un lanzamiento. Como sujetos eligieron tres tipos de jugadores de cricket, desde campeones nacionales australianos a jugadores universitarios. Todos visionaron vídeos de lanzadores tirando bolas. Una vez que acababa cada video tenían que predecir qué tipo de lanzamiento era y dónde aterrizaría. En algunos casos el vídeo terminaba en el momento en el que el lanzador soltaba la bola. En otros casos sólo se veía el primer paso, o los dos primeros pasos, que daba el lanzador mientras aún tenía la bola en la mano.

Los jugadores de élite obtuvieron resultados mucho mejores que los demás. Podían hacer predicciones bastante buenas después de ver a los lanzadores dar un sólo paso, y si llegaban a ver el momento de soltar la bola, su precisión aumentaba espectacularmente. Los jugadores universitarios lo hicieron mucho peor. En el caso de los vídeos de un sólo paso sus predicciones no eran mejores que las hechas al azar y sólo mejoraban si podían ver la bola en vuelo.

Predecir el resultado de una tarea parece implicar las mismas áreas cerebrales que el atleta desarrolla con la práctica, lo que explicaría por qué los deportistas tienden a obtener mejores resultados en retos como estos. En un estudio relacionado [6], Salvatore Aglioti de la Universidad de Roma “la Sapienza” juntó un grupo de gente, en el que había algunos jugadores profesionales de baloncesto, y escaneó sus cerebros mientras veían películas de otros jugadores lanzando tiros libres. Algunas de las películas se paraban antes de que el balón abandonase las manos del jugador, otras justo después. Los sujetos tenían que adivinar si el balón pasaba por el aro o no. Los cerebros de los profesionales mostraban una gran actividad en las regiones implicadas en el control de los músculos de mano y brazos, pero en los de los no profesionales esas regiones estaban relativamente tranquilas. Parece como si los profesionales estuviesen realizando mentalmente los tiros libres, usando su experiencia para adivinar el resultado obtenido por los jugadores de las películas.

Estos estudios están comenzando a responder la cuestión de qué es lo que hace a algunas personas grandes deportistas: son capaces de cambiar las conexiones de sus cerebros según ciertas reglas. Si los científicos pudiesen descifrar esas reglas podrían encontrarse formas de dotar a las personas de mejores habilidades atléticas. ¿No estaremos hablando de ciencia ficción? Parece que no. En febrero de 2009 Krakauer [véase la primera parte de este artículo] y Pablo Celnik, de la Universidad Johns Hopkins, nos permitieron entrever qué aspecto tendrán estas intervenciones [7]. Los científicos entrenaron a un grupo de voluntarios durante 45 minutos al día durante cinco días para que moviesen un cursor horizontalmente en una pantalla, para lo que apretaban entre sus dedos índice y pulgar un dispositivo llamado transductor de fuerza. Cuanto más aprietas más rápido se mueve el cursor. A cada jugador se le pedía que moviese el cursor de un lado a otro entre una serie de blancos, intentando hacerlo lo más rápido posible sin rebasar los blancos. Al final del entrenamiento los sujetos cometían muchos menos errores que al principio.

Los científicos también entrenaron a otro grupo de gente para realizar el mismo juego, pero con una pequeña gran diferencia. Les colocaron a cada uno de los sujetos una pila encima de la cabeza, que enviaba una pequeña corriente a través de la superficie del cerebro hasta un grupo de neuronas en el córtex motor primario. La estimulación eléctrica les permitía aprender el juego mejor. Tras cinco días de entrenamiento, los que habían usado el estímulo eléctrico podían mover el cursor más rápidamente y con mayor precisión que el grupo de control. Y esta diferencia no se desvanecía con el tiempo. Durante tres meses los sujetos volvían a repetir el experimento en el laboratorio de vez en cuando. Todo el mundo empeoró con el tiempo, pero los que habían recibido la estimulación eléctrica seguían siendo mejores que los otros.

El estudio de Krakauer y Celnik apunta todo un mundo de cuestiones éticas que pueden plantearse en el futuro para el mundo del deporte. ¿Sería admisible que un tenista llevase un estimulador portátil mientras practica su saque? Después de todo sólo estaría mejorando lo que de todas formas se obtiene con el entrenamiento. La persecución que hoy día tiene el abuso del conocimiento farmacológico, el llamado dopaje, puede que en su día la reciba el abuso del conocimiento neurocientífico.

Referencias:

[3]

Draganski, B., Gaser, C., Busch, V., Schuierer, G., Bogdahn, U., & May, A. (2004). Neuroplasticity: Changes in grey matter induced by training Nature, 427 (6972), 311-312 DOI: 10.1038/427311a

[4]

Smith MD, & Chamberlin CJ (1992). Effect of adding cognitively demanding tasks on soccer skill performance. Perceptual and motor skills, 75 (3 Pt 1), 955-61 PMID: 1454502

[5]

Müller S, Abernethy B, & Farrow D (2006). How do world-class cricket batsmen anticipate a bowler's intention? Quarterly journal of experimental psychology (2006), 59 (12), 2162-86 PMID: 17095494

[6]

Aglioti, S., Cesari, P., Romani, M., & Urgesi, C. (2008). Action anticipation and motor resonance in elite basketball players Nature Neuroscience, 11 (9), 1109-1116 DOI: 10.1038/nn.2182

[7]

Reis, J., Schambra, H., Cohen, L., Buch, E., Fritsch, B., Zarahn, E., Celnik, P., & Krakauer, J. (2009). Noninvasive cortical stimulation enhances motor skill acquisition over multiple days through an effect on consolidation Proceedings of the National Academy of Sciences, 106 (5), 1590-1595 DOI: 10.1073/pnas.0805413106

lunes, 19 de abril de 2010

La mayor eficiencia de los cerebros de los deportistas (1 de 2)


Las cualidades que separan a un gran atleta del resto de los mortales no son sólo unos músculos y unos pulmones desarrollados, sino también un cerebro excepcional. Y ello se debe a que deben tomar decisiones complejas muy rápidamente. Imaginemos un contraataque a toda velocidad en un partido de baloncesto a pocos segundos del final del cuarto; el base, que lidera el contraataque, debe saber en cada momento donde está cada uno de sus compañeros y sus oponentes, evaluar sus velocidades y posibles trayectorias y decidir en una fracción de segundo si debe lanzar el balón con toda precisión para el mate del pívot, pasar a su compañero de la derecha y parar el contraataque o pararse antes de la línea para arriesgar un tiro de tres puntos. Para poder jugar a este nivel, el base tiene que dominar tanto las decisiones conscientes, como la de intentar el tiro de tres, como las inconscientes, a saber, qué peso apoyar en cada pie, a qué velocidad rotar su muñeca cuando suelta la pelota, etcétera.

En los últimos años la investigación neurocientífica ha comenzado a catalogar algunas diferencias fascinantes entre los cerebros normales y los de los grandes atletas. Comprendiendo lo que ocurre en las cabezas de los deportistas de élite los investigadores esperan comprender mejor el funcionamiento de todos los cerebros: desde leyendas del deporte a maestros del mando a distancia.

Como muestra el ejemplo del base de baloncesto, las acciones de un deportista son mucho más que un conjunto de respuestas automáticas; éstas son parte de una estrategia dinámica para enfrentarse a una mezcla siempre cambiante de retos. Incluso un deporte aparentemente tan sencillo como el tiro de pistola es sorprendentemente complejo. Un tirador simplemente apunta y dispara, y sin embargo cada tiro requiere muchas decisiones rápidas, tales como cuánto doblar el codo o contraer los músculos del hombro. Dado que el tirador no tiene un control perfecto de su cuerpo, una vacilación en una parte del brazo puede requerir muchos ajustes rápidos en otras partes. Cada vez que levanta su arma tiene que hacer un nuevo cálculo de qué movimientos son necesarios para un tiro preciso, combinando la experiencia anterior con las variaciones que esté experimentando en ese momento.

Para explicar cómo los cerebros toman estas decisiones sobre la marcha, Reza Shadmehr de Universidad Johns Hopkins (EE.UU) y John Krakauer de la Universidad de Columbia (EE.UU) revisaron [1] hace un par de años los estudios publicados en los que se habían escaneado los cerebros de gente sana en comparación con los de personas con un daño cerebral que resultaba en pérdida de control de sus cuerpos. Encontraron que varias regiones del cerebro colaboran para realizar los cálculos necesarios para las acciones motoras detalladas. El cerebro comienza estableciendo un objetivo (coger el tenedor, hacer un saque de tenis) y calcula el mejor curso de acción para alcanzarlo. Conforme el cerebro comienza a emitir órdenes, comienza también a hacer predicciones acerca de qué clase de sensaciones debe enviar el cuerpo si alcanza el objetivo. Si las predicciones y las sensaciones realmente recibidas no cuadran, el cerebro revisa el plan para reducir el error. El trabajo de Shadmehr y Krakauer demuestra que el cerebro no emite órdenes rígidas, sino que actualiza continuamente su solución al problema de cómo mover el cuerpo. Los deportistas podrían rendir más que nosotros porque sus cerebros pueden encontrar mejores soluciones que los nuestros.

Para comprender cómo los atletas llegan a estas mejores soluciones, otros neurocientíficos han llevado a cabo experimentos en los que atletas y no-atletas realizan la misma tarea. Claudio del Percio, de la Universidad de Roma “la Sapienza” (Italia), y sus colegas han informado de sus resultados en un artículo [2] aparecido en el Brain Resarch Bulletin en el que midieron las ondas cerebrales de campeones de karate y gente corriente, en reposo y con los ojos cerrados, y las compararon. Resultó que los atletas emitían ondas alfa (asociadas a un estado de reposo) más intensas. Este descubrimiento sugiere que el cerebro de un atleta es como un coche de carreras al ralentí, listo para ponerse en acción.

El equipo de del Percio también han medido ondas cerebrales de atletas y no atletas en acción. En un experimento los investigadores observaron a tiradores de pistola mientras disparaban 120 veces. En otro experimento los investigadores hicieron que tiradores de esgrima hiciesen equilibrio sobre un pie. En ambos casos los científicos llegaron a los mismos resultados sorprendentes: los cerebros de los deportistas estaban más tranquilos, lo que significa que dedican menor actividad cerebral a estas actividades motoras que la que dedican los no-deportistas. Según del Percio, la razón es que los cerebros de los atletas son más eficientes, por lo que producen el mismo resultado usando menos neuronas. Los científicos también encontraron que cuando los tiradores de pistola acertaban en el blanco, sus cerebros tendían a estar más tranquilos que cuando fallaban. El trabajo de del Percio sugiere, pues, que cuanto más eficiente es un cerebro, mejor se le da el deporte.

[Continúa leyendo la segunda parte]

Referencias:

[1]

Shadmehr, R., & Krakauer, J. (2008). A computational neuroanatomy for motor control Experimental Brain Research, 185 (3), 359-381 DOI: 10.1007/s00221-008-1280-5

[2]

Del Percio, C., Babiloni, C., Marzano, N., Iacoboni, M., Infarinato, F., Vecchio, F., Lizio, R., Aschieri, P., Fiore, A., & Toràn, G. (2009). “Neural efficiency” of athletes’ brain for upright standing: A high-resolution EEG study Brain Research Bulletin, 79 (3-4), 193-200 DOI: 10.1016/j.brainresbull.2009.02.001

domingo, 18 de abril de 2010

Arqueología interestelar: un nuevo paradigma en la búsqueda de inteligencia extraterrestre.


Cuando la idea de buscar señales de radio provenientes del espacio exterior como método para encontrar inteligencia extraterrestre comenzó hace 50 años, parecía una buena idea. Hoy día los avances de la civilización humana hacen ver que la idea era buena pero muy limitada. Richard Carrigan, del Fermilab, explora en un artículo de arXiv qué alternativas hay. Una de ella es la búsqueda de esferas de Dyson.

En las montañas Cascade de California (EE.UU.), al norte del pico Lassen, hay astrónomos buscando extraterrestres. El Allen Telescope Array (pagado en su mayor parte por Paul Allen, cofundador de Microsoft) consiste en 42 antenas parabólicas, cada una con un diámetro de 6 metros, esparcidas por el campo. Cuando el despliegue esté completo tendrá 350 antenas que, actuando de forma coordinada, tendrán la misma potencia que un instrumento de 700 metros de diámetro.

El telescopio Allen está buscando extraterrestres a la manera tradicional: buscando señales de radio que o bien hayan sido enviadas de forma deliberada, o bien que se hayan escapado al espacio de forma accidental, como les ha pasado a las emitidas por los humanos. La búsqueda de inteligencia extraterrestre (SETI, por sus siglas en inglés), es una idea que tiene 50 años. Se ha avanzado mucho en la localización de planetas con posibilidades de albergar vida, pero también se han analizado con detenimiento las emisiones de radio de alrededor de 1000 sistemas estelares. El Allen incrementará el número a 1 millón en una década.

Este es un número impresionante pero hay quien piensa que es un enfoque equivocado. Paul Davies (Universidad del Estado de Arizona, EE.UU.) ha señalado que las comunicaciones en las que se emplean emisiones de radio generalizadas pueden ser un fenómeno restringido a una ventana temporal muy corta en la historia de la Tierra. Efectivamente, los humanos cada vez usan más la fibra óptica para comunicarse. No sólo eso, muchos dispositivos de radio actuales (como los teléfonos móviles) se basan en una técnica llamada cifrado de espectro disperso, que usa señales que se parecen al ruido de fondo, excepto, evidentemente, para los receptores con el código correcto para interpretarlo. Los humanos inventaron esta tecnología 100 años después de inventar la transmisión por radio, por lo que no es descabellado pensar que los extraterrestres hayan hecho otro tanto. Las señales de radio de origen claramente artificial pueden ser, por tanto, sólo un signo transitorio de civilización. Habría pues que ampliar la búsqueda basándose en indicios diferentes.

En un artículo publicado en arXiv, Richard Carrigan, del Laboratorio Nacional Fermi (EE.UU.), estudia algunas sugerencias. Su primera idea es buscar “polución” en las atmósferas de planetas con posibilidades. Esta es una ampliación de la idea de buscar signos de vida en las atmósferas. Así, por ejemplo, si una civilización extraterrestre apuntase con un espectroscopio a la Tierra se daría cuenta de que pasa algo raro. Detectaría que la atmósfera de este planeta contiene un 21% de oxígeno, uno de los elementos más reactivos de la tabla periódica, lo que sugiere que debe haber un mecanismo que lo regenera (como efectivamente lo hay, la fotosíntesis).

Carrigan afirma que, además del oxígeno, deberían buscarse moléculas como los clorofluorocarbonos, que serían signos inequívocos de tecnología, ya que no son producidos por ningún proceso natural. Aunque si los CFC son tan dañinos para ese planeta como lo son para la Tierra, también sería una tecnología transitoria.

En vez de buscar los primeros signos de industrialización quizás lo que se debería hacer es dejar vía libre a la imaginación y preguntarnos cómo podría la tecnología transformar un sistema solar si tuviese decenas o centenares de miles de años para actuar. Este es el territorio de la ciencia ficción, pero la mejor ciencia ficción está basada en la realidad.

Una de estas ideas que ha atraído la atención de los escritores de ciencia ficción es la de Freeman Dyson de que las especies verdaderamente avanzadas tecnológicamente intentarán captar toda la energía posible construyendo una cubierta esférica alrededor de su estrella central. Estas esferas de Dyson, si existen, re-irradiarían parte de la energía capturada (la parte que la civilización no ha consumido) en forma de calor, es decir, en forma de radiación infrarroja.

Esta radiación puede ser detectada, aunque las esferas de Dyson serían difíciles de distinguir de objetos astronómicos naturales con una firma similar. El nacimiento y la muerte de las estrellas, por ejemplo, están asociados a nubes de polvo pesado que emite una señal infrarroja que podría parecerse al enjambre de satélites que constituyen la esfera de Dyson.

Hasta ahora pocos astrónomos han buscado esferas de Dyson, y ninguno ha tenido éxito. Pero Carrigan sigue pensando que merece la pena. Ha estado catalogando posibles candidatos a partir del Satélite Astronómico Infrarrojo, una colaboración entre Estados Unidos, el Reino Unido y Holanda que llevó a cabo el primer rastreo completo del cielo en longitudes de onda infrarrojas y que localizó cientos de miles de fuentes. En su página web ofrece consejos a arqueólogos interestelares aficionados que deseen buscar esferas de Dyson. Está prevista que se lleve a cabo una investigación de señales SETI de los 13 “candidatos a esferas de Dyson menos inverosímiles” usando el telescopio Allen.

Como es evidente, cualquier civilización que haya sido capaz de construir una esfera de Dyson ha tenido que existir durante mucho tiempo. Y en todo este tiempo su estrella ha podido empezar a cambiar de forma muy desagradable, expandiéndose para formar una gigante roja. Otra señal de tecnología avanzada sería un intento de ralentizar este proceso. Las gigantes rojas se crean cuando una estrella consume su suministro de hidrógeno en el núcleo, con el resultado de que la capa más interior se contrae y las capas externas se expanden, formando una estrella más roja y mucho más grande. Si las capas más externas pudiesen mezclarse con el núcleo eso desaceleraría el proceso. Y, cabe suponer, una civilización suficientemente avanzada intentaría hacerlo si pudiera.

Sin embargo, una estrella así tendría un aspecto raro. Sería más azul de lo que debería ser y sería de un tipo conocido para los astrónomos como “azul rezagado”. También en este caso existen causas naturales para su formación. El universo, sin embargo, es un lugar muy antiguo, por lo que muchas civilizaciones pueden ser realmente muy antiguas. Quizás, pues, sea una señal como esta, de una civilización con millones de años de antigüedad, la que se termine por descubrir, más que la de alguna que esté empezando y ni siquiera tenga sus ondas de radio bajo control.

[Este artículo está dedicado a las, para mi sorpresa, muchas personas que se han interesado por este blog y por un servidor en los últimos cuatro meses, en especial a Mauricio Zapata. Además es la contribución de Experientia docet a la VI Edición del Carnaval de la Física].

Referencia:

Richard A. Carrigan Jr (2010). Starry Messages: Searching for Signatures of Interstellar Archaeology n/a arXiv: 1001.5455v1