jueves, 30 de septiembre de 2010

Por qué autolesionarse alivia a algunas personas.


La idea de que el cortarse o quemarse uno mismo pudiera suponer algún tipo de alivio de la angustia emocional es difícil de entender para la mayoría de nosotros, pero es algo que afirman experimentar las personas que se autolesionan compulsivamente.

Los individuos que padecen trastorno límite de personalidad (TLP) experimentan emociones intensas y presentan a menudo carencias en la capacidad de regularlas. Estas personas también muestran altas tasas de prevalencia de la autolesión, comportamiento que podría ayudarles a reducir los estados emocionales negativos.

El grupo de Inga Niedtfeld, de la Universidad de Heidelberg (Alemania), ha estudiado los efectos de varios estímulos emocionales y un estímulo térmico en personas con y sin TLP y publica sus resultados en Biological Psychiatry. Usaron resonancia magnética funcional para detectar las áreas del cerebro que se activaban durante la presentación de imágenes que evocaban sentimientos negativos o neutros o durante la inducción de dolor o una sensación térmica por aplicación de calor. Los estímulos dolorosos fueron ajustados a los umbrales personales de cada sujeto.

En los sujetos con TLP el equipo de investigadores constató una mayor activación que en el grupo de control de la amígdala, la ínsula y el córtex cingulado anterior como respuesta a los estímulos emocionales, tanto negativos como neutros; lo que es consistente con los problemas que afirmaban padecer de regulación de las emociones. Sin embargo frente a los estímulos sensoriales, los voluntarios con TLP presentaban una disminución de la actividad de la amígdala y el córtex cingulado anterior, independientemente de lo doloroso que fuese el estímulo (dentro de los límites del estudio), disminuyendo de esta manera la reactividad emocional.

En otras palabras, estos datos son consistentes con la hipótesis de que los estímulos dolorosos físicamente aportan algo de alivio al estrés emocional en las personas con TLP porque, paradójicamente, inhiben las regiones cerebrales implicadas en la regulación de las emociones.

Referencia:

Niedtfeld, I., Schulze, L., Kirsch, P., Herpertz, S., Bohus, M., & Schmahl, C. (2010). Affect Regulation and Pain in Borderline Personality Disorder: A Possible Link to the Understanding of Self-Injury Biological Psychiatry, 68 (4), 383-391 DOI: 10.1016/j.biopsych.2010.04.015

miércoles, 29 de septiembre de 2010

Camino al éxito.






Una de las formas en la que los genes afectan al comportamiento es a través de los neurotransmisores, las sustancias químicas que llevan mensajes entre las células nerviosas. Entre ellos, dos de los más importantes son la dopamina y la serotonina. La dopamina controla las sensaciones de placer y recompensa. La serotonina regula el estado de ánimo. Se ha demostrado que algunos rasgos de la personalidad dependen de los niveles de estos transmisores. La búsqueda de la novedad, por ejemplo, está asociada con altos niveles de dopamina. Una tendencia a la depresión podría estar ligada a bajos niveles de serotonina. Y los niveles de ambas están regulados por los genes, con variantes distintas del mismo gen provocando efectos distintos.

Los últimos años han visto un aumento de la investigación sobre las relaciones entre versiones particulares (alelos) de los genes relacionados con los neurotransmisores y el comportamiento resultante. Se ha estudiado desde el resultado de las elecciones a la promiscuidad sexual, pasando por la popularidad personal y la aversión al riesgo. Sin embargo los estudios relacionados con el mundo laboral son muy escasos. Pero reveladores.

El equipo de Zhaoli Song, de la Universidad Nacional de Singapur, es de los pocos que ha trabajado en este ámbito. Recogió y analizó muestras de 123 parejas de Singapur para comprobar si podían encontrar correlaciones con todo un conjunto de variables relacionadas con el mundo laboral, comenzando con la satisfacción en el trabajo.

En primer lugar los investigadores comprobaron la tendencia de cada participante del estudio al abatimiento, con objeto de establecer una referencia. Posteriormente recopilaron información sobre el historial reciente de la persona respecto al estrés severo (como haber sido herido de gravedad, haber sido despedido o perdido una gran suma de dinero) en el año precedente al estudio. Una vez establecido de donde partía cada individuo. Se les pidió que informasen de momentos de estado de ánimo negativo (enfado, culpa, tristeza o preocupación) y de satisfacción laboral, medida en una escala de siete puntos, cuatro veces al día durante una semana. Para garantizar la inmediatez de la información, los participantes informaban a través de una aplicación instalada en sus teléfonos móviles.

Se sabe por investigaciones anteriores que algunas formas de melancolía, como el trastorno afectivo emocional, están ligadas a versiones concretas de un gen de un receptor de serotonina llamado HTR2A. Cuando el equipo de Song analizó los resultados de los análisis de ADN encontró que aquellos participantes con una variante concreta del HTR2A tenían menos probabilidades que los que tenían alguna de las otras dos variantes posibles de experimentar episodios de estado de ánimo negativo, incluso si llevaban un año de mucho estrés. Asimismo informaban de mayor satisfacción laboral, un efecto que no aparecía entre los sujetos con los otros alelos del gen.

Este resultado sugiere que las personas que han tenido la fortuna de venir equipadas con la versión correcta del HTR2A, tienen menos probabilidades de que las situaciones estresantes tengan como resultado episodios de estado de ánimo negativo. Su mejor estado de ánimo se traduce directamente en mayor satisfacción laboral. En otras palabras, podría ser una mutación genética concreta en un gen de un receptor de serotonina, y no los incentivos de la empresa, lo que hace que una persona esté más contenta en su trabajo. Y ya se sabe, más contenta, más productiva, más barata…

Esta entrada es parte de la serie ¿Un mundo feliz?

Referencias:

Ponencias presentadas por Song Zhaoli durante la 40th Annual Meeting of the Behavior Genetics Association, en el simposio sobre Estudios Genéticos del Comportamiento Laboral, Seúl (Korea del Sur), 2-5 junio 2010:

· Associations between Dopamine and Serotonin Genes and Job Satisfaction

· The relationships between HT2RA gene, negative mood and job satisfaction in daily life: An event-sampling approach

martes, 28 de septiembre de 2010

Agua regia ¡orgánica!


El aqua regia tradicional es una mezcla de los ácidos clorhídrico (HClaq) y nítrico (HNO3) concentrados en una relación molar 3:1. Se la llama así (agua real) porque puede disolver los metales nobles como el oro (Au), el platino (Pt) o el paladio (Pd), a pesar de que los ácidos que la componen no son capaces de disolverlos por separado. La acción del aqua regia es un todo/nada, disuelve todos los metales nobles presentes en una muestra, es decir, no presenta selectividad alguna. Esta falta de selectividad impide un uso generalizado del agua regia en el reciclado de unos metales valiosos tanto por su escasez como por su uso.

La necesidad técnica de un método selectivo para poder recuperar unos metales que cada vez tienen más aplicaciones técnicas (nanotecnología, catalizadores, etc.) ha encontrado una solución por la vía menos esperada: usando disolventes orgánicos. Un equipo liderado por Wei Lin, del Instituto de Tecnología de Georgia (EE.UU.), ha descubierto una serie de mezclas de disolventes que consiguen disolver los metales nobles con altas tasas de especificidad en condiciones moderadas. El hallazgo se publica en Angewandte Chemie.

El equipo de investigadores descubrió por accidente que el oro se disuelve cuando se le deja en una mezcla de cloruro de tionilo (SOCl2) y piridina (C5H5N, estructura hexagonal heterocíclica). Experimentos posteriores pusieron de manifiesto que otros compuestos orgánicos, como la N,N-dimetilformamida ((CH3)2-N-CHO, DMF), el imidazol (C3H4N2, estructura pentagonal heterocíclica) o la pirazina (C4H4N2, estructura hexagonal heterocíclica), podían conseguir efectos similares cuando se les mezcla con cloruro de tionilo. En todos los casos el oro se recupera por calcinación.

La disolución selectiva de los metales nobles se consigue variando la receta y las condiciones de reacción. Así, por ejemplo una mezcla SOCl2/DMF disuelve el oro pero no el paladio ni el platino.

Hasta aquí la química de laboratorio; en términos industriales la cosa varía un poco. Si bien la selectividad conseguida es espectacular y permitiría el uso de estas mezclas en el reciclaje de los metales nobles, en términos de eficiencia/coste el agua regia orgánica no es competitiva actualmente con el agua regia tradicional. Ofrece, eso sí, una alternativa más segura (en términos de prevención de riesgos laborales) y podrían encontrarse aplicaciones más allá del reciclado, como la síntesis de nanoestructuras de metales nobles o la eliminación selectiva de nanorrecubrimientos. Con todo, el agua regia orgánica todavía está lejos de tener un uso industrial.


Referencia:

Lin, W., Zhang, R., Jang, S., Wong, C., & Hong, J. (2010). “Organic Aqua Regia”-Powerful Liquids for Dissolving Noble Metals Angewandte Chemie International Edition DOI: 10.1002/anie.201001244

lunes, 27 de septiembre de 2010

Nacido para dirigir, o no.


Cuando las palabras “biología” y “comportamiento” aparecen en la misma frase casi automáticamente pensamos en la genética y en la antigua cuestión de si son los genes o el ambiente los principales responsables de nuestra forma de ser. En lo que respecta al mundo laboral, Scott Shane, de la Case Western Reserve University (EE.UU.), ha realizado una exhaustiva revisión de los distintos estudios realizados sobre cómo afecta la genética al desempeño en el trabajo, que ha terminado recogiendo en un libro [*]. Muchos de los datos de Shane provienen de estudios de parejas de gemelos, una herramienta tradicional para los investigadores de la genética humana, privados de las posibilidades experimentales de los que estudian moscas, gusanos o ratones.

Las conclusiones de Shane son, como mínimo, llamativas. El consenso de los estudios con gemelos es que los genes sí son responsables de una proporción sustancial de las diferencias entre individuos; y ello aplica tanto al mundo laboral como al resto de la vida. Se observa una influencia genética tanto en los trabajos que la gente escoge (el 75% de la diferencia en las preferencias laborales de un individuo por las artes plásticas se explica por los genes, el 65% si hablamos de las ciencias fisicoquímicas, más del 50% si de la enseñanza o el periodismo y un 25% si de las ventas), como en lo satisfecho que está el individuo con el trabajo que realiza, en lo frecuentemente que cambia de empleo o en lo importante que es el trabajo para él. También se ha determinado la influencia genética en lo importante que es para una persona realizar bien el trabajo o, estrictamente hablando, en lo mal que lo puede llegar a hacer: los genes explican más de un tercio de la variación entre individuos en “actuación laboral censurada”, un índice que engloba amonestaciones, suspensiones temporales y despidos relacionados con el rendimiento. El sueldo también depende de la genética. Alrededor del 40% de la variación entre los ingresos de las personas es atribuible a los genes.

Los genes, sin embargo, no actúan aislados. El ambiente también es importante. Uno de los principales errores de los investigadores sociales es tratar genética y ambiente como dos variables independientes cuando, en realidad, interactúan más de lo que se piensa.

Richard Arvey, de la Universidad Nacional de Singapur, ha estado investigando precisamente cómo interactúan los genes con los distintos tipos de ambientes para crear cosas tales como “afán emprendedor” y la capacidad para dirigir a otros. Investigaciones anteriores han demostrado que las personas que exhiben rasgos de personalidad concretos, como la búsqueda de sensaciones, es más probable que se conviertan en empresarios que las personas más equilibradas y menos sociables. Arvey y sus colegas encontraron [1] el mismo efecto para la extroversión (de la que la búsqueda de sensaciones es tan sólo una faceta) en un estudio que publicaron en Organizational Behavior and Human Decision Processes. Sin embargo, detectaron un matiz muy interesante. Su estudio (de 1285 parejas de gemelos idénticos y 849 parejas de hermanos del mismo sexo) sugiere que los genes explican la relación con la extroversión sólo en las mujeres. En los varones, el rasgo se adquiere ambientalmente. Dicho de otra forma: las mujeres de negocios nacen, los varones, se hacen.

En un segundo estudio [2] con gemelos, también publicado en Organizational Behavior and Human Decision Processes, esta vez sólo con varones, Arvey y sus colegas se preguntaron hasta qué punto los líderes nacen y hasta cuál se hacen. El equipo de investigadores encontró que los rasgos del liderazgo innatos ciertamente existen pero que el ambiente también influye. La influencia de los genes en el potencial de liderazgo es más débil en los muchachos criados en familias pudientes y que apoyan mucho, y más fuerte en los criados en ambientes más duros. Esto quizás explique en parte la tasa tan enorme de fracasos en el paso a la segunda generación de empresas familiares de éxito.

Esta entrada es parte de la serie ¿Un mundo feliz?

Referencias:

[*]

Shane, S. A. (2010). Born Entrepreneurs, Born Leaders: How Your Genes Affect Your Work Life New York, NY: Oxford University Press.

[1]

Zhang, Z., Zyphur, M., Narayanan, J., Arvey, R., Chaturvedi, S., Avolio, B., Lichtenstein, P., & Larsson, G. (2009). The genetic basis of entrepreneurship: Effects of gender and personality Organizational Behavior and Human Decision Processes, 110 (2), 93-107 DOI: 10.1016/j.obhdp.2009.07.002

[2]

Zhang, Z., Ilies, R., & Arvey, R. (2009). Beyond genetic explanations for leadership: The moderating role of the social environment Organizational Behavior and Human Decision Processes, 110 (2), 118-128 DOI: 10.1016/j.obhdp.2009.06.004

domingo, 26 de septiembre de 2010

Einstein y...Max Planck


En el mundo de la física las ideas de Max Planck fueron progenitoras de algunas de las aportaciones más importantes de Einstein. Planck fue el primero en afirmar que la energía no es continua, sino que está constituida por trocitos indivisibles llamados cuantos, una idea sobre la que Einstein se basó para afirmar que la luz también estaba formada por paquetes similares, hoy conocidos como fotones. Esta relación paterno-filial se extendió también al mundo académico: los dos hombres estaban muy próximos y el aliento de Planck fue una gran ayuda para la ciencia y la carrera de Einstein, ya que Planck adoptó un papel muy activo tanto en la promoción de la teoría de la relatividad como en conseguir que Einstein avanzase profesionalmente.

La principal contribución a la física de Max Planck llegó en 1901, cuando resolvió un problema conocido hoy como la “catástrofe del ultravioleta” (este nombre se lo dio Ehrenfest en 1911). Los físicos habían descubierto que cuando se trataba de luz y radiación las leyes de la mecánica clásica de Newton simplemente no servían. Un ejemplo es la llamada radiación del cuerpo negro. Un cuerpo negro es un cuerpo que absorbe toda la radiación electromagnética que incide sobre él que, a su vez, emite en forma de radiación térmica, cuyo espectro puede medirse. Pero la mecánica newtoniana predecía que las longitudes de onda ultravioletas deberían aumentar infinitamente, algo que no parecía probable y que los experimentos desmentían. Planck, que era muy creativo desde el punto de vista matemático, propuso una solución que partía de la hipótesis de que la luz sólo podía existir en paquetes específicos, cuantos, de energía. En vez de tener una onda continua de energía, como una onda sonora, Planck sugería que la energía era discontinua. La idea era parecida a una ola del mar que está compuesta por diminutas moléculas de agua, incluso si no son visibles al ojo humano. Una vez introducidos los cuantos la teoría modificada sí se correspondía con los datos experimentales de la radiación del cuerpo negro. La catástrofe del ultravioleta dejó de ser un problema, nacía la mecánica cuántica.

Pero Planck no sabía muy bien cómo interpretar esta nueva descripción de la radiación, o ni siquiera cómo esta innovadora técnica matemática podría ser aplicada a otra situación. De hecho llegó a decir que había introducido los cuantos en “un acto de desesperación”, por el que ganaría el premio Nobel en 1918. Pero fue un revolucionario reticente y no dio el siguiente paso: intentar averiguar qué significaba esta nueva idea.

Eso quedó para Einstein. Años después, Einstein recordaría que leyó el artículo revolucionario de Planck mientras estaba en la universidad y que dejó una profunda huella en él. Einstein se dio cuenta de que ninguna de las dos teorías fundamentales del momento, la mecánica newtoniana y la teoría electromagnética de Maxwell, describían exactamente el universo. Einstein empleó buena parte de los años siguientes en tratar de resolver este problema. Como consecuencia de este trabajo, en 1905, incorporó las ideas de Planck a una teoría completamente nueva de la luz. La teoría de Einstein decía que la luz visible, igual que la ultravioleta, estaba formada por cuantos. Este concepto fue el que terminó dándole el premio Nobel, pero también fue la teoría que tardó más tiempo en ser aceptada. Al principio, igual que la pasó a Planck antes que a él, Einstein no afirmaba rotundamente que estos “cuantos de luz” fuesen algo más que una herramienta matemática. Sin embargo, pasados unos años llegó a creer realmente que la luz estaba constituida por partículas igual que eran los electrones.

Es mérito de Planck haber sido uno de los responsables de que el novedoso artículo de Einstein se publicase. Planck era uno de los editores de la prestigiosa revista alemana Annalen der Physik. Llevaba su sección con una increíble apertura de mente: si un autor había publicado antes tenía prácticamente garantizado que podría volver a publicar en la revista, independientemente de lo que Planck opinase personalmente del trabajo. En este caso, a Planck no le gustaba demasiado la nueva teoría, pero movió hilos para que se publicase.

Einstein veía, como no podía ser de otra manera, las raíces de su trabajo en el previo de Planck, pero a Planck le llevó un tiempo poder aceptar la idea. Justo después de la primera Conferencia Solvay, celebrada en el otoño de 1911, Einstein escribió a un amigo: “He tenido bastante éxito a la hora de convencer a Planck que mi concepción [de los cuantos de luz] es correcta, después de su lucha en contra de ella de tantos años”. Si bien Planck terminó aceptando la existencia de los fotones, siempre mantuvo algo de distancia con la física cuántica que él había generado, dejando a sus colegas más jóvenes que trabajasen en los detalles.

Sin embargo, con la teoría especial de la relatividad Planck mantuvo una posición mucho más favorable y activa. El mismo año en que Einstein publicó su teoría de los cuantos de luz, también publicó su artículo sobre la teoría especial de la relatividad. Ese mismo otoño Planck ya daba conferencias sobre los detalles de la nueva teoría de Einstein. Planck era, ya en esa época, un científico de enorme influencia y para el joven Einstein contar con su apoyo fue un éxito importantísimo. En 1910, Planck fue aún más lejos en su apoyo a Einstein, llegando a compararlo públicamente con Copérnico, diciendo. “Este principio [de la relatividad] ha traído una revolución en nuestra representación física del mundo, que, en extensión y profundidad, solamente puede ser comparada con la que produjo la introducción del sistema copernicano”.

Y, con todo y como buen camarada, Planck no podía evitar mofarse educadamente de Einstein: tras leer un intento de éste de escribir un artículo de divulgación de la teoría de la relatividad dirigido al público en general, Planck dijo que Einstein parecía pensar que podía convertir una frase compleja en algo entendible simplemente introduciendo frecuentes interjecciones de “querido lector”.

Planck se convirtió en un defensor de las ideas y la persona de Einstein, llegando a extremos que rayan el heroísmo. Empezando por su carrera profesional, Planck ayudó a Einstein a conseguir un trabajo en los recientemente creados Institutos Kaiser Wilhem en Berlín, llegando a negociar en su favor para que le concedieran los aumentos de sueldo anuales. Planck también era secretario de la Academia Prusiana de Ciencias en la que se dedicaba a promover la ciencia alemana. Al aumentar el nacionalismo y el antisemitismo alemanes, Einstein le prometió a Planck, para entonces un íntimo amigo, que no abandonaría Berlín si no era absolutamente necesario.

Einstein terminaría abandonando Berlín y renunciando a su pertenencia a la Academia Prusiana en 1933, justo después de que se le otorgasen a Hitler plenos poderes sobre Alemania. Para entonces Planck tuvo que admitir que era “la única salida”, pero no se quedó callado como muchos de sus colegas. Permaneció en Alemania y mantuvo su posición en la Academia desde la que intentó desesperadamente contener los ataques contra la “ciencia judía” y los científicos judíos. Tras la marcha de Einstein en 1933, Planck continuó alabando en público su trabajo y a su persona, a pesar de haberse convertido Einstein en el objetivo principal de los ataques y del riesgo que ello suponía para el propio Planck y su familia: “Herr Einstein no es uno más entre muchos físicos sobresalientes, sino que Herr Einstein es el físico a través de cuyos ensayos, publicados en nuestra Academia, el conocimiento físico en este siglo ha sido profundizado de una manera cuya importancia sólo puede compararse con los logros de Johannes Kepler o Isaac Newton”. Planck, llegó a solicitar y conseguir entrevistarse con Hitler para intentar convencerle, sin éxito, de que su política contra los judíos perjudicaba el avance científico alemán.

Tras una vida de prestigio en Alemania, la Segunda Guerra Mundial fue, en lo personal, devastadora para Planck. Su hijo fue asesinado por la Gestapo por su participación en el intento de atentado contra Hitler de 1944. Otros tres hijos de Planck y su primera esposa habían muerto ya y este fue el mazazo final. Le quedaban aún se segunda mujer y el hijo de ambos, pero la vida dejó de interesarle. Moriría tres años después.

Si bien siempre fue un líder de la comunidad científica internacional, Planck no publicó ningún artículo relevante desde el de 1901. Sus escritos se volvieron cada vez más hacia la filosofía de la ciencia y a la descripción de cómo cambiaban las teorías científicas: “Una nueva verdad científica no triunfa porque convence a sus opositores y les hace ver la luz, sino más bien porque sus opositores terminan muriendo y una nueva generación crece familiarizada con ella”. Planck escribía esto en una época en la que otros filósofos estaban desarrollando ideas sobre cómo se desarrolla la ciencia, ideas que todavía perviven en el pensamiento filosófico actual, pero el principio de Planck parece que es especialmente relevante para la mecánica cuántica. Einstein y Planck fueron dos de los pocos físicos que levantaron su voz en contra de la nueva física, mientras que una nueva cosecha de veinteañeros la abrazaba con entusiasmo. Tras las muertes de Einstein y Planck, la mecánica cuántica que fundaron, pero siempre cuestionaron, se enseña, con la convicción de la teoría aceptada, a las nuevas generaciones de estudiantes.

[En la imagen, tomada en 1931 durante la visita de Millikan a la Academia Prusiana de Ciencias podemos ver, de izquierda a derecha, a Walther Nernst, Albert Einstein, Max Planck, Robert Millikan y Max von Laue; los cinco ya tenían el Nobel]

sábado, 25 de septiembre de 2010

¿Un mundo feliz?


Todos nos integramos en una organización laboral tarde o temprano. Cada una de ellas tiene un sistema de selección de personal diferente: una oposición, un concurso-oposición, por recomendación, por una batería de tests y entrevistas o una combinación de todo o parte de lo anterior. Pero, ¿y si en un futuro la selección de personal se hiciese en función de un análisis de muestras biológicas? Los conocimientos científicos actuales permiten aventurar con cierta solidez que esto es posible.

Iniciamos una serie de artículos para repasar, no exhaustivamente, lo que distintas áreas de la ciencia tienen que decir sobre cómo nuestra fisiología influye en nuestro posible rendimiento en el mundo laboral, y en cómo ello podría emplearse para determinar la validez de un candidato. Los artículos serán los siguientes:

  1. ¿Un mundo feliz? (presentación de la serie)
  2. Nacido para dirigir, o no (genética)
  3. Camino al éxito (genética, neurociencia)
  4. En busca del equilibrio (endocrinología)
  5. Proceso de selección (fiabilidad y cuestiones éticas).

En 1611 Shakespeare escribió “La tempestad”. En su acto V, escena I, Miranda dice:

O wonder!

How many goodly creatures are there here! How beauteous mankind is! O brave new world! That has such people in it!

Que se puede traducir como:

¡Oh qué maravilla!
¡Cuántas criaturas bellas hay aquí! ¡Cuán bella es la humanidad! ¡Oh mundo feliz, en el que vive gente así!

De este texto toma Aldous Huxley el título de su novela “Un mundo feliz”, publicada en 1932. En este mundo del que habla Huxley el individuo es destinado desde su concepción a una función en la sociedad: ésta es controlada por los Alfas y sus subordinados, Betas; abajo, en orden descendente a nivel mental y de inteligencia están los Gammas, Deltas y Épsilones. Cada casta es posteriormente dividida en “Más” y “Menos”. En el pináculo de la sociedad están los Alfa “Doble-Más”, destinados a ser los futuros científicos y principales administradores del mundo. Para crear las castas, tras la selección de los padres adecuados, cada feto es sometido a un ambiente de toxinas y hormonas diferente. Cuando nace cada individuo recibe un condicionamiento diferente. Es un mundo donde no sólo existe la eugenesia, sino que ésta es el principio rector de la sociedad.

Hemos llamado a nuestra serie “¿Un mundo feliz?”, porque quizás, sólo quizás, puedan encontrarse similitudes entre lo que contemos y el mundo feliz de Huxley.

miércoles, 22 de septiembre de 2010

Cómo afecta lo que comes al funcionamiento del cerebro.


Los alimentos que ingerimos, y mucha de las drogas psicoactivas más populares, provienen de plantas o animales. Algunos ingredientes de estos productos animales o vegetales son muy similares, si no idénticos, a los neurotransmisores que operan en nuestro cerebro y en el resto de nuestro cuerpo para que funcionen normalmente. Esta es la razón por la que la composición de nuestra dieta puede interactuar con nuestras neuronas e influir en la función cerebral, y pone de manifiesto un principio muy importante: las sustancias presentes en la comida que se ingiere afectarán a tu cerebro si la composición y estructura químicas se parecen en algo a los neurotransmisores o, por otro lado, si interactúan con los procesos bioquímicos del cerebro que participan en la producción, liberación o inactivación de un neurotransmisor.

¿Cómo es posible que plantas y humanos usemos sustancias tan parecidas para las funciones normales de todos los días? Pues porque plantas y humanos compartimos una historia evolutiva común en este planeta. Incluso los organismos unicelulares más primitivos producen las mismas sustancias que están nuestro cerebro. Es por esto que, independientemente de que elijas una zanahoria, un plato de sushi o un paté de amebas, los compuestos químicos que contiene cada alimento pueden alterar el funcionamiento de tus neuronas y, por tanto, cómo te sientes o cómo piensas.

Todos hemos experimentado nuestra historia evolutiva común con las plantas. Por ejemplo, los plátanos no maduros contienen el neurotransmisor serotonina. Cuando comes un plátano todavía verde la serotonina que contiene puede actuar sobre las neuronas de tu tracto digestivo. Una consecuencia probable es que se produzca un aumento de la activación de los músculos del intestino, una forma elegante de llamar a la diarrea.

Muchas plantas contienen sustancias que podrían mejorar el rendimiento de tu cerebro. Por ejemplo, las patatas, los tomates y las berenjenas contienen solanina y α-chaconina, compuestos que potencian la acción de la acetilcolina, vital para la formación de recuerdos. Puedes mejorar ligeramente tu estado de ánimo comiendo las semillas de las habas ya que contienen L-DOPA, un precursor en la producción de la dopamina, el compuesto de las recompensas cerebrales.

El que uno de estos compuestos afecte realmente a tu cerebro depende de cuánto consumas y de tu fisiología personal. Ello podría explicar por qué hay gente que encuentra tanta satisfacción comiendo patatas y berenjenas.

Los compuestos parecidos a la morfina con capacidad para actuar sobre el cerebro se producen en el intestino cuando consumes leche, huevos, queso, espinacas, setas, calabaza y varios pescados y cereales. Los productos lácteos en particular contienen una proteína en concreto, la caseína, que las enzimas del intestino pueden convertir en beta-casomorfina. En los recién nacidos, puede atravesar con facilidad el intestino inmaduro y llegar al cerebro en desarrollo donde produce euforia.

La sensación placentera que produce este compuesto opioide en los mamíferos recién nacidos, tras probar por primera vez la leche de su madre, se cree que anima al bebé a volver una y otra vez a por su dosis. Así, el ser capaz de experimentar la euforia producida por un opioide tiene una importancia de vida o muerte para el recién nacido. Los adultos no experimentan esta sensación al beber leche debido a la presencia de barreras intestino-sangre (hematointestinal) y cerebro-sangre (hematoencefálica) completamente desarrolladas.

Los psicotropos de origen vegetal más populares son, sin duda, la cafeína y la nicotina. Se ha escrito tanto de ellos que no nos repetiremos aquí. Pero sí hablaremos de la adicción que provoca el que puede que esté en tercera posición en popularidad: el chocolate. El chocolate contiene un poco de cafeína, pero también todo un despliegue de compuestos psicoactivos que contribuyen a la satisfacción que produce comerlo. El chocolate contiene fenetilamina, una molécula muy semejante a la anfetamina, y pequeñas cantidades de anandamida, que se parece al ingrediente activo de la marihuana, un cannabinoide. Ocurre que la anandamida es un neurotransmisor del cerebro humano que es crítico para poder experimentar placer. La combinación de todas estas sustancias se traduce en el principal efecto del chocolate, la reducción de la ansiedad.

En términos de reducción de la ansiedad, sin embargo, la sustancia más popular es el alcohol etílico. El alcohol potencia la ya importante acción inhibitoria del neurotransmisor GABA y actúa como depresor del sistema nervioso central. Por esta razón, en el siglo XIX el alcohol era ampliamente usado como anestesia general. El problema era que la duración del efecto depresivo sobre el cerebro era demasiado largo y no podía controlarse ni con facilidad ni con seguridad. La dosis efectiva para la anestesia quirúrgica está demasiado próxima a la dosis letal. Por lo tanto, era posible inducir suficiente anestesia en un vaquero herido para arrancarle una flecha de su pierna, pero era improbable que el vaquero en cuestión sobreviviera a la operación. Si la flecha no le mataba, el anestésico podía hacerlo.

Por tanto, y resumiendo, dependiendo de la concentración que una sustancia llegue a alcanzar en el cerebro nuestra dieta puede alterar de forma significativa nuestro estado de ánimo y algunas funciones superiores. Para alcanzar dicha concentración, tan importante como la cantidad de comida ingerida, son el peso del individuo, su fisiología, su edad y el estado de sus barreras hematointestinal y hematoencefálica.


Fisiología en la Ciencia Ficción [inspirado en el auténtico FCF]

Con lo que acabas de leer en mente, te proponemos el siguiente Gedankenexperiment:

Un astronauta está caminando en un planeta similar a la Tierra y, repentinamente, le muerde una criatura dotada de algo parecido a colmillos. El astronauta se da cuenta de que está herido y de que el bicho le ha inyectado una sustancia líquida, puede que veneno, bajo su piel. ¿Muere? ¿Por qué?

Dentro de unos días publicaremos la respuesta. Hela aquí (01/10/10):

Asumimos que al ser el planeta similar a la Tierra, tiene una atmósfera ni corrosiva ni tóxica que ejerce una presión razonable para un humano.

El astronauta no muere, porque su especie y la de la criatura del planeta no comparten un pasado evolutivo o un ancestro común. Aunque ambos puedan estar hechos de proteínas formadas a partir de aminoácidos, sus pasados evolutivos distintos harían altamente improbable que usasen moléculas semejantes como neurotransmisores en sus respectivos cerebros y resto de cuerpos.

Cada astronauta que visita otros mundos, desde el capitán Kirk a Flash Gordon, pasando por toda la familia Skywalker, pueden sentirse seguros cuando pasean por los planetas (excepto en el suyo propio) pues tienen inmunidad frente a las toxinas de los animales y plantas. Por esta misma razón, las bebidas intoxicantes y los potentes medicamentos, que siempre parecen ser tan populares en estos nuevos mundos de la ciencia ficción, tendrían también efectos completamente diferentes, en el caso de que tuviesen alguno, en el sistema nervioso de nuestro osado astronauta.

Comer los alimentos de otros mundos podría ser la experiencia más desagradable y angustiosa de todas: Incluso si dieran sensación de estar lleno y pudieran saber deliciosamente, como productos de bioquímicas alienígenas estarían, muy probablemente, desprovistos de cualquier tipo de valor nutritivo. Por lo tanto, el principal riesgo al que se enfrenta nuestro intrépido astronauta en sus viajes interestelares es ¡morir de hambre!

lunes, 20 de septiembre de 2010

Omega: la Respuesta con mayúsculas.


Hace algún tiempo un grupo de seres pandimensionales hiperinteligentes decidió encontrar la respuesta a la Gran Pregunta sobre la Vida, el Universo y Todo. Con este fin construyeron un ordenador increíblemente potente, Pensamiento Profundo. Tras varios millones de años de ejecución de un fabuloso programa se anunció la Respuesta. Y la Respuesta fue…

.000000100000010000100000100001110111001100100111100010010011100 . . .

No, no es 42. Eso es de una novela de Douglas Adams y esto es el mundo real. La Respuesta con mayúscula es, repitámosla,

.000000100000010000100000100001110111001100100111100010010011100 . . .

Este número se llama Omega y, si conocieses sus primeros miles de dígitos, conocerías más respuestas a preguntas matemáticas de las que puedan plantearse. Por si esto fuese poco, la mera existencia de Omega es una demostración de que la mayoría de las matemáticas no pueden crearse [“descubrirse” es un término platónico en este contexto, y en este blog odiamos cordialmente a Platón] aplicando solamente la lógica y el razonamiento. El hecho de que los matemáticos no tengan demasiada dificultad en crear nuevas matemáticas debe deberse a que los matemáticos usan algo de lo que los ordenadores no son capaces, llamémoslo “intuición”.

Omega, que fue definido por primera vez en los años 70 del pasado siglo por Gregory Chaitin, es un número binario infinitamente largo sin el menor rastro de pauta. Si definimos la complejidad de un número como la longitud del programa de ordenador más corto que lo puede generar en binario (concepto que forma parte de la Teoría de la Información Algorítmica –TIA-, creada por Chaitin y desarrollada independientemente por Andrei Kolmogorov), la ausencia absoluta de pauta implica que la secuencia infinita de ceros y unos de Omega necesita un programa de ordenador infinitamente largo para generarla. No hay atajos, ninguna forma de hacerlo más compacto. El non plus ultra en la irreductibilidad de la información.

Omega tiene una definición matemática simple y sin ambigüedades pero, por otra parte, su expresión numérica es algo que no puede ser conocido, de hecho, es algo que es el máximo de la no-conocibilidad. En general se suele pensar en pi, la razón entre la circunferencia y su diámetro, como en algo complejo. Así, sus dígitos (3,1415926…) son infinitos y no parece que se repitan. Y, sin embargo, resulta que pi puede ser generado por un programa de ordenador relativamente simple, por lo que para la TIA no es complejo en absoluto. Omega es infinitamente más complejo que pi.

Omega es como una serie infinita de tiradas de moneda, con las caras equivaliendo a “0” y las cruces a “1”. El resultado de cada tirada es independiente del resultado de la tirada anterior. La única forma de descubrir la secuencia de caras y cruces en una serie infinita de tiradas de moneda es tirar una moneda un infinito número de veces. No hay atajo.

Pero Omega es mucho, mucho más, que un simple número infinitamente aleatorio, infinitamente complejo e infinitamente incompresible (que no se puede comprimir). Omega también nos habla de los límites de los ordenadores, pero esa es otra historia.


[Esta entrada es la participación de Experientia docet en la VI Edición del Carnaval de Matemáticas que en esta ocasión alberga el Blog de Sangakoo.]

domingo, 19 de septiembre de 2010

La falta de rigor en la comunicación de la ciencia: el caso del magnetar en Westerlund 1


Los antecedentes:

La teoría viene sugiriendo que los agujeros negros que se forman a partir de estrellas deben tener como mínimo una masa 25 veces la del Sol (25 MS). Es necesaria una cantidad tan grande de materia para que la estrella colapse en un punto de densidad infinita, llamado singularidad, que está rodeado por una frontera (llamada el horizonte de sucesos) a través de la cual sólo se puede pasar en un sentido: hacia dentro. Las estrellas más pequeñas, las que tienen entre 8 y 25 MS, también terminan colapsando, pero rebotan en forma de supernova para estabilizarse después como estrellas de neutrones, en las que los protones y los electrones de la estrella original se funden para dar lugar a nuevos neutrones adicionales a los que ya había. Las estrellas con menos de 8 MS simplemente crecen para convertirse en gigantes rojas para después reducirse a enanas blancas.

En 2005 un equipo de astrónomos encabezado por Michael Muno [1] [2] [3] encontró lo que supone una pega a este cuadro de la evolución estelar. Esta pega tenía forma de magnetar. Los magnetares son un tipo de estrellas de neutrones que tienen un campo magnético del orden de 10 gigateslas, 1 billón (billón español, 1 millón de millones) de veces más intenso que el de la Tierra. Aunque son raras, encontrar una magnetar no debería suponer mucho revuelo pero es que el magnetar en cuestión debería haber sido un agujero negro dada la masa calculada para la estrella progenitora, 40 MS.

El magnetar se encuentra en un cúmulo de estrellas llamado Westerlund 1 [en la imagen, a la izquierda en visible -ESO-, a la derecha en rayos X -Chandra- con el magnetar marcado], a unos 16.000 años-luz de la Tierra. Estudios anteriores habían demostrado que éste es el más próximo de los llamados supercúmulos estelares, colecciones de cientos de estrellas brillantes y masivas, todas nacidas a la vez. En el caso de Westerlund 1, se calcula que su nacimiento tuvo lugar hace entre 3,5 y 5 millones de años.

La noticia:

Un equipo encabezado por Simon Clark, usando observaciones del VLT (Very Large Telescope) del Observatorio Europeo Austral (ESO, por sus siglas en inglés) del sistema doble eclipsado W13 de Westerlund 1 ha podido calcular las masas de las estrellas que lo componen. Como todas las estrellas de Westerlund 1 nacieron a la vez, este dato supone un límite inferior para la masa del magnetar ya que, al ser la vida de una estrella inversamente proporcional a su masa, la que dio origen al magnetar tuvo la vida más corta (ha sido la primera en evolucionar) y, por tanto, era la de mayor masa del cúmulo. Este resultado [4] supone una confirmación del dato calculado en 2005.

La comunicación:

La oficina de prensa de ESO mezcla pasado y presente en su comunicado de prensa [5], eso sí enfatizando la participación de científicos europeos. Afirma:

“Utilizando el Very Large Telescope (VLT) de ESO en el norte Chile, astrónomos europeos han demostrado por primera vez que un magnetar -un inusual tipo de estrella de neutrones- se formó a partir de una estrella de al menos 40 veces la masa del Sol. El resultado desafía las actuales teorías sobre evolución estelar pues se esperaba que una estrella tan masiva como ésta se convirtiera en un agujero negro, no en un magnetar. Esto genera una pregunta fundamental: ¿cuán masiva tiene que ser realmente una estrella para convertirse en un agujero negro? “

La falta de rigor (por no hablar de abierta manipulación) es evidente, el trabajo de Clark et al. confirma el de Muno de hace 5 años y, como demuestra la lectura de los enlaces, no aporta ningún dato nuevo aparte del método empleado.

Lamentablemente la información se propaga sin ser contrastada tanto en blogs [6] [7] [8] [9] [10] (estos son sólo ejemplos, con algunos desbarrando completamente cuando se salen del guión), como en la prensa profesional [11] [12] que encima, con eso de querer ser originales, titulan sin sentido.

Durante un debate con Roger Penrose en 1994 en el Instituto de Ciencias Matemáticas Isaac Newton de la Universidad de Cambridge (Reino Unido), Stephen Hawking dijo: “ Einstein estaba equivocado cuando dijo que dios no juega a los dados. La consideración de los agujeros negros sugiere que dios no sólo juega a los dados, sino que algunas veces nos confunde tirándolos donde no se pueden ver.” Visto lo visto, otras veces somos nosotros los que les damos una patada para que vayan debajo del sofá.

[1]

Muno, M., Clark, J., Crowther, P., Dougherty, S., de Grijs, R., Law, C., McMillan, S., Morris, M., Negueruela, I., Pooley, D., Portegies Zwart, S., & Yusef-Zadeh, F. (2006). A Neutron Star with a Massive Progenitor in Westerlund 1 The Astrophysical Journal, 636 (1) DOI: 10.1086/499776

domingo, 12 de septiembre de 2010

Teoría de cuerdas para un comentarista anónimo.


Considera este texto que estás leyendo, una vez impreso, como la “realidad percibida”. Está basado en el alfabeto. Podemos pensar que las letras son los componentes básicos de todo escrito. Sin embargo, cada letra, que tiene dos dimensiones en el papel (hagamos esta aproximación), en realidad está en última instancia representada por conjuntos de ceros y unos, el código binario, que han llegado a la pantalla de tu ordenador como una onda electromagnética, que se transmite usando dos dimensiones extras, una más de espacio y el tiempo. La realidad percibida, bidimensional, en última instancia tendría cuatro dimensiones.

De forma análoga podemos pensar que electrones y quarks son las letras del alfabeto con el que está escrita la naturaleza. Pero, según las teorías de cuerdas (hay 5 distintas), estas letras en realidad estarían compuestas por algo mucho más fundamental, las cuerdas, que tendrían una dimensión y vibrarían en dimensiones extras, con un total de 10 dimensiones. La teoría M intenta unificar las 5 teorías de cuerdas afirmando que en vez de cuerdas unidimensionales existirían membranas bidimensionales vibrando en 11 dimensiones.

[Esta entrada responde al reto planteado por un comentarista anónimo de explicar la teoría de cuerdas y la teoría M en "dos o tres frases". El párrafo con la explicación tiene tres frases. Vosotros diréis si he tenido éxito.]


Esta entrada participa en la XI edición del Carnaval de la Física que organiza El neutrino.

miércoles, 8 de septiembre de 2010

Enjambrenoides.


Cuando observamos la decidida actividad colectiva de las hormigas y otros insectos sociales tenemos la sensación de que es inteligente. Puede que sea una ilusión. Pero puede que sea una ilusión lo suficientemente buena como para que los expertos en computación saquen provecho de ella. Los intentos de conseguir inteligencia artificial (IA) basados en modelos de redes neuronales del cerebro humano han sido un completo fracaso. Los basados en el comportamiento de las hormigas, sin embargo, están teniendo algo de éxito. ¿Será que la base de la inteligencia tiene el mismo fundamento que el de las colonias de hormigas? ¿Estará la base de la consciencia en el funcionamiento de los enjambres de abejas? ¿Seremos enjambrenoides?

Las hormigas llamaron la atención de los ingenieros de software a comienzos de los años 90. Una sola hormiga no puede hace mucho por sí misma, pero la colonia como un todo resuelve problemas complejos como construir un nido muy elaborado, mantenerlo y llenarlo de comida. Esto llamó la atención de personas como Marco Dorigo, ahora en la Universidad Libre de Bruselas (Bélgica), que fue uno de los fundadores de lo que ahora se conoce como inteligencia de enjambre.

En concreto Dorigo se centró en la habilidad de las hormigas a la hora de elegir la ruta más corta posible entre una fuente de alimento y su nido. Esto recuerda a un viejo problema computacional conocido como problema del viajante. Dada una lista de ciudades y las distancias que las separan, el viajante debe encontrar la ruta más corta para visitar cada ciudad una vez. Conforme crece el número de ciudades el problema se hace más complicado, consumiendo cada vez más capacidad de procesamiento en un ordenador. La razón por la que el problema del viajante es tan interesante es que muchos otros problemas complejos, incluido el diseño de chips de silicio y el montaje de secuencias de ADN, al final vienen a ser una versión modificada del mismo.

Las hormigas resuelven su propia versión del problema mediante señales químicas llamadas feromonas. Cuando una hormiga encuentra comida, la lleva de regreso al hormiguero dejando tras de sí un rastro de feromonas que atraerá a otras hormigas. Cuantas más hormigas sigan el rastro más intenso se vuelve. Pero las feromonas se evaporan rápidamente, por lo que una vez que la comida ha sido recogida el rastro desaparece con igual velocidad. Por otra parte, la rápida evaporación significa que las rutas largas son menos atractivas que las cortas, todo lo demás igual. Las feromonas, por tanto, amplifican la limitada inteligencia de las hormigas individuales.

En 1992 Dorigo y su grupo comenzó a desarrollar Ant Colony Optimisation (ACO, Optimización Colonia de Hormigas), un algoritmo que busca soluciones a un problema simulando un grupo de hormigas deambulando por un área y depositando feromonas. ACO resultó ser un buen algoritmo para la resolución de problemas como el del viajante. Desde entonces y a partir de él se ha desarrollado toda una familia de algoritmos que han tenido aplicaciones prácticas.

Como era de esperar la aplicación con más éxito ha estado en la logística. Tanto Migros, una cadena de supermercados suiza, como Barilla, el principal fabricante de pasta italiano, gestionan sus repartos diarios desde almacenes centrales a las tiendas u otros almacenes usando AntRoute (RutaHormiga). AntRoute es un programa desarrollado por AntOptima, una empresa surgida del Instituto de Inteligencia Artificial Dalle Molle de Lugano (Suiza; IDSIA, por sus siglas en italiano), uno de los centros a la vanguardia de la investigación en inteligencia de enjambre en Europa. Cada mañana las “hormigas” del programa calculan las mejores rutas y secuencias de reparto, dependiendo de la cantidad de mercancía, sus destinos, ventanas de suministro y camiones disponibles.

Los “algoritmos de hormiga” también han sido aplicados al problema de conducir la información a través de las redes de comunicación. Dorigo y Gianni di Caro, un investigador del IDSIA, han desarrollado AntNet (RedHormiga), un protocolo de enrutamiento en el que los paquetes de información saltan de nodo a nodo, dejando un rastro que indica la “calidad” de su viaje conforme lo hacen. En las simulaciones por ordenador y en ensayos en redes a pequeña escala, AntNet ha demostrado ser superior a los protocolos de enrutamiento existentes. Es mejor a la hora de adaptarse a condiciones cambiantes (un incremento de tráfico, por ejemplo) y es más robusto frente a fallos en los nodos.

El enrutamiento, ya sea de bytes o de camiones, es lo que los matemáticos llaman un problema discreto, con un número fijo, aunque sea grande, de soluciones. Para los problemas continuos, con un número de soluciones potencialmente infinito (como el de encontrar la mejor forma para el ala de un avión) hay otro tipo de inteligencia de enjambre que funciona mejor. La Particle Swarm Optimisation (PSO, optimización de enjambre de partículas), que fue inventada por James Kennedy (Departamento del Trabajo de los Estados Unidos) y Russell Eberhart (Universidad de Purdue, EE.UU.) a mediados de los años 90, se basa más en los pájaros que en los insectos. Cuando colocas un comedero para pájaros en el balcón, es necesario algún tiempo para que el primer pájaro lo encuentre pero, una vez encontrado, en poco tiempo muchos otros se unirán a ese primero. Los algoritmos PSO intentan recrear este efecto. Los pájaros artificiales vuelan por ahí al azar, pero siempre tienen un ojo en los demás y siempre siguen al que está más próximo a la “comida”. Existen en este momento unas 650 aplicaciones comprobadas de PSO, que van desde el análisis de imágenes y video al diseño de antenas, de sistemas de diagnóstico en medicina a la detección de fallos en máquinas industriales.

Los pájaros y las hormigas digitales están bien para encontrar soluciones a los problemas, pero Dorigo está ahora trabajando en algo que puede actuar además de pensar: robots. Un enjambre de robots pequeños y baratos puede conseguir mediante cooperación los mismos resultados que robots más grandes y caros, pero con mayor flexibilidad y con mayor robustez: si un robot queda fuera de servicio, el enjambre sigue trabajando.

El proyecto Swarmanoid (Enjambrenoide) finalizará este 30 de septiembre. Se basa en tres clases de pequeños robots sencillos, cada uno con una función diferente, que pueden cooperar a la hora de explorar el entorno. Los “Eye-bots” (Robojos) exploran y localizan objetos interesantes. Los “Foot-bots” (Robopiés) transportan a los “Hand-bots” (Robomanos) a los lugares identificados por los Robojos. Los robots, además, poseen un sistema que permite a los robots detectar cuándo un miembro del enjambre no está funcionando bien, basado en la forma en la que algunas luciérnagas sincronizan sus emisiones de luz de tal manera que árboles completos se encienden y apagan al unísono. Los robots hacen lo mismo, y si una luz se apaga por mal funcionamiento los otros robots pueden reaccionar rápidamente, ya sea aislando al averiado de forma que no cause problemas o llamando a la base para que sea retirado. Toda esta actividad la realizan sin un plan previo o una coordinación central. Se basa sólo en las interacciones entre robots individuales. Los robots se pueden ver en la página web del proyecto, aquí.

Todo lo anterior es muy alentador. Pero cualquiera que esté realmente interesado en el la cuestión de la inteligencia no puede evitar volver al cerebro humano y preguntarse qué pasa en él realmente: y están aquellos que piensan que, en vez de ser una ilusión de inteligencia, lo que Dorigo y sus colegas han conseguido podría ser una buena analogía del proceso base de la inteligencia.

Por ejemplo, según Vito Trianni del Instituto de Ciencias y Tecnologías Cognitivas (Italia), la forma en la que las abejas seleccionan los lugares donde hacer colmenas es sorprendentemente parecido a lo que ocurre en el cerebro. Las abejas exploradoras recorren un área en busca de lugares apropiados. Cuando descubren un buen sitio vuelven a la colmena, donde realizan una danza (similar a la que indica la posición de flores ricas en néctar) para reclutar a más exploradoras. Cuanto mayor es la calidad percibida del sitio, más larga es la danza y mayor el reclutamiento, hasta que se han reclutado suficiente número de exploradoras y el resto del enjambre las sigue. Sustituyamos ahora abejas por neuronas y danza por actividad eléctrica y tendremos una buena descripción de lo que ocurre cuando un estímulo produce una respuesta en el cerebro.

Los que proponen la, así llamada, cognición de enjambre, como Trianni, piensan que el cerebro podría funcionar como un enjambre de células nerviosas, sin coordinación de arriba abajo. Incluso las funciones cognitivas complejas, como el razonamiento abstracto o la consciencia podrían surgir simplemente de las interacciones a nivel local de las células nerviosas haciendo sus danzas. Podríamos hablar entonces, quizás, de inteligencia o consciencia enjambrenoides; por cierto, más cercanas a la mecánica estadística que a la mecánica cuántica, pero este es otro tema.

miércoles, 1 de septiembre de 2010

¿Varía espacialmente la constante de estructura fina?


Richard Feynman, premio Nobel y un físico extraordinario, se refirió a ella llamándola “número mágico” y a su valor “uno de los jodidos grandes misterios de la física” (“one of the greatest damn mysteries of physics”). El número al que se estaba refiriendo, la constante de estructura fina (CEF), habitualmente representada por la letra griega alfa, es realmente mágico. Si fuera tan sólo un 4% mayor o menor de lo que es las estrellas no podrían mantener las reacciones nucleares que sintetizan el carbón y el oxígeno. Una consecuencia sería que la vida, tal y como la conocemos, no existiría.
La razón por la que alfa tiene el valor que tiene, tan delicadamente ajustado para la existencia de la vida, es un gran misterio físico. Sin embargo, los resultados de una investigación astrofísica podrían haber resuelto una parte importante del enigma. En un artículo [1] que aparecerá en Physical Review Letters (actualmente en arXiv), un equipo dirigido por John Webb y Julian King de la Universidad de Nueva Gales del Sur (Australia) presenta pruebas de que la constante de estructura fina podría no ser constante después de todo. Más bien parece que varía con el punto del universo que se considere. Si estos resultados pasan la revisión, y pueden ser reproducidos, tendrán importantísimas implicaciones ya que sugieren que el universo se extiende mucho más allá de lo que los telescopios pueden observar, y que las leyes de la física varían en él. En vez de que el conjunto del universo esté ajustado finamente para la vida, resultaría que la humanidad misma se encuentra en un rincón del universo que, como le ocurrió a Ricitos de Oro, tiene exactamente los valores de alfa que son apropiados para ella.

En realidad, la CEF está compuesta de otras constantes físicas, cuyos valores se pueden encontrar en cualquier libro de texto de física, aparte de en la Wikipedia. Tenemos el cuadrado de la carga del electrón, dividido por la velocidad de la luz, la constante de Planck, la permitividad del vacío y dos veces pi. El resultado es un número adimensional: las unidades de las constantes originales se cancelan y el resultado queda en un limpio 1/ 137,036, independiente del sistema de unidades que se use.
A pesar de esta estructura, la CEF tiene un significado real. Caracteriza la intensidad de la fuerza entre partículas cargadas eléctricamente. Establece, entre otras cosas, los niveles de energía de los átomos, formados por núcleos de carga positiva y electrones negativos. Cuando los electrones saltan entre estos niveles energéticos, absorben o emiten luz de frecuencias características. Estas frecuencias después aparecen como líneas (oscuras para la absorción, brillantes para la emisión) en un espectro. Cuando hay muchos niveles de energía distintos implicados, como en el caso de una estrella de composición química compleja, el resultado es una estructura con el aspecto de un peine, de muchos dientes muy finos (de aquí viene el nombre de la constante, la estructura fina del espectro). Si la CEF tuviese un valor diferente, las longitudes de onda de estas líneas cambiarían. Y eso es lo que Webb, King y sus colaboradores han encontrado.
La luz que han analizado los investigadores viene de quásares, galaxias extremadamente luminosas (y distantes) cuya emisión de energía es consecuencia de la presencia de grandes agujeros negros en sus centros. Conforme la luz de un quásar viaja por el espacio, pasa a través de nubes de gas que dejan la huella de las líneas de absorción de sus componentes en el espectro. Midiendo las longitudes de onda de una gran colección de estas líneas de absorción y descontando los efectos de la expansión del universo, el equipo de investigadores ha sido capaz de evaluar alfa en lugares que están a miles de millones de años luz de distancia.
Webb encabezó por primera vez un estudio como este hace casi una década, usando 76 quásares que observó usando el telescopio Keck de Hawái. Encontró que, cuanto más lejos se miraba, más pequeña parecía ser la CEF. En astronomía mirar muy lejos significa mirar muy atrás en el tiempo. Los datos por tanto indicaban que alfa era alrededor de un 0,0006% menor hace 9 mil millones de años de lo que es ahora. Esto puede que parezca insignificante, pero cualquier desviación de cero detectable significaría que las leyes de la física eran diferentes allí (y entonces) de las que se aplican en la vecindad de la Tierra.

Un resultado de esta trascendencia necesitaba una verificación independiente usando un telescopio diferente, por lo que en 2004 otro grupo de investigadores realizó observaciones desde el Telescopio Muy Grande (Very Large Telescope, VLT) del Observatorio Europeo Austral en Chile. Este grupo no encontró pruebas de ninguna variación en la CEF. Desde entonces, sin embargo, se han descubierto fallos en este segundo análisis, por lo que el equipo de Webb lo que ha hecho ha sido su propio control con una muestra de 60 quásares observados por el VLT.

Los resultados que han obtenido han sido sorprendentes: cuanto más atrás miraban con el VLT, más grande parecía ser la CEF, en aparente contradicción con el resultado que obtuvieron con el Keck. Pero había que tener en cuenta que los observatorios están en hemisferios diferentes y, por lo tanto, apuntan en diferentes direcciones. La conclusión es que la CEF no varía con el tiempo, sino con el espacio. Cuando analizaron los datos de ambos telescopios desde esta perspectiva encontraron un gran arco en el espacio. A lo largo de este arco, el valor de la CEF cambia suavemente, siendo más pequeño en una dirección y mayor en la otra. Los investigadores calculan que hay menos de un 1% de probabilidad de que un efecto como este pueda surgir por azar. 6 quásares pudieron ser observados con ambos telescopios, por lo que sirvieron para tener una idea clara de los errores de medida.
Si la CEF realmente varía con el espacio, podría representar una manera de estudiar las esquivas “dimensiones superiores” que predicen muchas teorías, pero que están más allá del alcance de los aceleradores de partículas de la Tierra. En estas teorías, las constantes observadas en el mundo tridimensional son reflejos de lo que ocurre en dimensiones superiores. Es habitual en estas teorías que dichas constantes cambien sus valores conforme el universo se expande y evoluciona. Desafortunadamente, el método empleado no permite al equipo decir cual de las constantes que intervienen en alfa podría estar cambiando.
Julian Berengut y Victor Flambaum (uno de los coautores con Webb y King del artículo que nos ocupa), también de la Universidad de Nuevas Gales del Sur, apuntan en un artículo publicado [2] en paralelo que se podría obtener una comprobación independiente a partir de ensayos de laboratorio empleando relojes atómicos sólo ligeramente mejores de los que ya existen. Estos relojes mostrarían cambios en su regularidad conforme el Sistema Solar se moviese a través del universo. Si llegase una confirmación así, rompería uno de los principios fundamentales de la física, la asunción de que las leyes físicas son iguales siempre y en todo lugar.
Referencias:
[1]
J. K. Webb, J. A. King, M. T. Murphy, V. V. Flambaum, R. F. Carswell, & M. B. Bainbridge (2010). Evidence for spatial variation of the fine structure constant Physical Review Letters arXiv: 1008.3907v1

[2]

J. C. Berengut, & V. V. Flambaum (2010). Manifestations of a spatial variation of fundamental constants on atomic
clocks, Oklo, meteorites, and cosmological phenomena Physical Review Letters arXiv: 1008.3957v1