viernes, 27 de agosto de 2010

Inercia neurológica.


Una de las principales cuestiones que la neurociencia tiene pendiente de resolver es dar una explicación satisfactoria a las transiciones entre lo estados conscientes e inconscientes. El estudio de la anestesia general en modelos animales ofrece una forma controlable de investigar la barrera que parece separar ambos estados. Sin embargo, y a pesar de que cada año cientos de millones de personas son intervenidas quirúrgicamente bajo anestesia general, solamente se tienen hipótesis de cómo la anestesia interactúa con el sistema nervioso central. Una de estas hipótesis era que los procesos por los cuales el cerebro se “dormía” por la anestesia y por los que “salía” de ella eran básicamente los mismos. Ahora, investigadores de la Universidad de Pensilvania dirigidos por Max Kelz han establecido que el cerebro entra y sale de un estado de inconsciencia inducida por mecanismos diferentes. Los resultados se publican en PLoS One.

La inducción de la anestesia se atribuye comúnmente a las modificaciones que provocan los fármacos en la función neuronal, mientras que la recuperación de la anestesia se pensaba que ocurría pasivamente, con la eliminación del anestésico del sistema nervioso central (SNC). Si esto fuese cierto, las concentraciones de anestésico en el SNC en el momento de “dormirse” y “salir” serían indistinguibles.

Sin embargo, generando datos de respuesta a la dosis anestésica tanto en moscas de la fruta como en ratones, los investigadores demuestran que las rutas de ida y vuelta no son idénticas. Por el contrario los animales presentaron un retraso a la hora de volver al estado de conciencia a pesar de la concentración reducida de anestésico. Esto significa que lo que ocurre a una concentración dada depende de qué estado “viene” el sujeto. Para comprobar la neurobiología que pudiera estar tras esta histéresis (se llama así a un fenómeno que no depende sólo de las circunstancias actuales, sino también de cómo se ha llegado a esas circunstancias), repitieron los experimentos pero esta vez con un grupo de control y otro modificado genéticamente. En los ratones se encontraron pruebas que indican la implicación de los sistemas de la activación (despertar) adrenérgicos (más sensibilidad y más histéresis en los mutados, que carecían de la dopamina beta-hidroxilasa), mientras que en las moscas son las rutas que promueven el sueño las que están implicadas (las mutadas, con una funcionalidad reducida del canal de potasio relacionado con la agitación, Sh, tenían menos sensibilidad e histéresis mínima)

Basándose en estos hallazgos los autores proponen una idea muy interesante: el concepto de inercia neurológica. El cerebro presenta una tendencia a continuar en el estado en el que está, resistiéndose a las transiciones entre consciencia e inconsciencia, lo que sería un estado fundamental y biológicamente conservado.

Si esta hipótesis se ve confirmada muchos protocolos anestésicos tendrán que ser revisados, ya que se basan en estudios farmacocinéticos y farmacodinámicos que parten de la base, que sería incorrecta, de que a igual concentración, igual efecto. Por otra parte también abre todo un abanico de posibilidades para el estudio y tratamiento de enfermedades del sueño y de los estados de coma.

Referencia:

Friedman, E., Sun, Y., Moore, J., Hung, H., Meng, Q., Perera, P., Joiner, W., Thomas, S., Eckenhoff, R., Sehgal, A., & Kelz, M. (2010). A Conserved Behavioral State Barrier Impedes Transitions between Anesthetic-Induced Unconsciousness and Wakefulness: Evidence for Neural Inertia PLoS ONE, 5 (7) DOI: 10.1371/journal.pone.0011903

Imagen "Waking Up to Apocalypsis" gentileza de David Velásquez.

miércoles, 25 de agosto de 2010

Un océano por descubrir: la evolución redox.


La aparición de oxígeno libre en la atmósfera supuso un cambio enorme en las condiciones en las que se desarrollaba la evolución de las especies. Una atmósfera oxidante también cambió las condiciones fisicoquímicas de rocas, sedimentos y, lo que es crítico para la vida, las aguas superficiales. Si queremos conocer cómo aparecieron los animales necesitamos saber cómo cambió la química de los océanos durante y tras la aparición del oxígeno libre.

En un artículo publicado en Nature Geoscience [1], David Fike de la Universidad Washington en San Luis (EE.UU.), pone de manifiesto la inconsistencia de las interpretaciones de los indicadores redox, poniendo en cuestión la concepción habitualmente aceptada de la química de los océanos primitivos. Fike repasa investigaciones recientes que apoyan la idea de que dicha concepción se basa en la extrapolación de unos datos manifiestamente insuficientes.

Los indicadores redox (de reducción-oxidación), como la proporción de isótopos de cromo presentes en las llamadas formaciones bandeadas de hierro (unas rocas sedimentarias) o la proporción de isótopos en las partículas de sulfuro atrapadas en diamantes, permiten a los geólogos deducir si las condiciones de la atmósfera de la Tierra y sus océanos eran reductoras (con tendencia a ceder electrones a otros átomos) u oxidantes (con tendencia a tomarlos).

Fike se centra en el dramático cambio de condiciones anóxicas a oxigenadas de los océanos terrestres que precedió al Período Ediacárico, que comenzó hace 635 millones de años y terminó hace 542, y en el que se considera que aparecen los animales. Pero antes de ver qué dice Fike pongamos un poco de perspectiva. La narración habitual que se puede encontrar en un libro de texto viene a decir lo siguiente:

Hace unos 4 mil millones de años la atmósfera de la Tierra era una mezcla mortal de gases expulsados por los volcanes: nitrógeno y sus óxidos, dióxido de carbono, metano, amoniaco, dióxido de azufre y sulfuro de hidrógeno. Los océanos que se habían formado a partir del agua condensada (o de la aportada por cometas) mantenían grandes cantidades de hierro disuelto aportado por las fumarolas hidrotermales del fondo marino.

Entonces alrededor de 2.700 millones de años, las cianobacterias (los organismos más autosuficientes del planeta, porque tanto fotosintetizan como fijan nitrógeno) empezaron a aportar oxígeno a la atmósfera y a las aguas someras.

Al principio el oxígeno empezó acumulándose gradualmente en la atmósfera pero, alrededor de hace unos 2.500 millones de años hubo un pico repentino en la concentración de oxígeno atmosférico. A este acontecimiento se le llama de diversas maneras: la Gran Oxidación, la Crisis/Revolución/Catástrofe del Oxígeno. El oxígeno mató a los anaerobios que no se refugiaron en sedimentos, las profundidades del océano u otros ambientes sin aire, y llevó a la evolución de los aerobios que podían usar el oxígeno para “despertar” su metabolismo. Aproximadamente al mismo tiempo, el hierro comenzó a precipitar en los océanos, formando rocas características de este período llamadas formaciones bandeadas de hierro que consisten en capas alternadas de roca gris y roja [en la imagen]. Las formaciones bandeadas de hierro se formaron entre hace unos 3.000 millones de años y 1.800 millones de años, y prácticamente nunca más. Se suele atribuir la precipitación del hierro a la cada vez mayor presencia de oxígeno disuelto en las aguas de los océanos.

Y entonces, otros dos millones de años después de la Gran Oxidación, aparecieron finalmente formas de vida multicelulares: la fauna del Período Ediacárico incluye los primeros metazoos (vulgo, animales). La asunción principal es que los niveles de oxígeno eran lo suficientemente altos como para poder soportar algo más que una célula aislada.

Hasta aquí la versión “oficial”. Pero esta hipótesis no aclara algunas cuestiones fundamentales:

· ¿Por qué los niveles de oxígeno tuvieron un pico hace 2.500 millones de años y cuánto oxígeno había en la atmósfera realmente?

· ¿Por qué las formaciones bandeadas de hierro están formadas por estratos de sólo unos pocos centímetros de espesor y por qué dejaron de formarse tan abruptamente?

· Si los océanos estaban oxigenados hace 2.500 millones de años, ¿por qué la vida multicelular retrasa su aparición 2.000 millones de años más?

· ¿Y todos estos cambios ocurrieron a la vez en todos los lugares de la Tierra?

Según Fike ello se debe a que esa hipótesis se ha creado a partir de datos manifiestamente insuficientes, realizando extrapolaciones ilegítimas. Por una parte no existe densidad de datos como para evaluar las variaciones espaciales en el pasado geoquímico de la Tierra y, por otra, los indicadores geoquímicos son retorcidamente difíciles de interpretar.

Esta hipótesis empezó a cuestionarse seriamente cuando, en 1998, Don Canfield de la Universidad de Odense (Dinamarca) sugirió que los compuestos de azufre también habían tenido un papel en la transformación de la química de la Tierra.

El argumento de Canfield era que la Gran Oxidación tuvo lugar realmente en dos etapas y que fueron los sulfuros más que el oxígeno los que provocaron la precipitación del hierro oceánico. El primer aumento del oxígeno habría causado el desgaste oxidativo de las rocas en tierra, lo que habría aportado sulfatos al océano a través de los ríos. En el océano, las bacterias reductoras de sulfato habrían convertido el sulfato en sulfuro como medio de obtener su energía metabólica. El hierro disuelto se combinó con los sulfuros para formar minerales de sulfuro de hierro, como la pirita, que precipitaron.

Durante la segunda fase, mucho más larga, se generó suficiente oxígeno para eliminar los sulfuros de las profundidades oceánicas, permitiendo la aparición de los metazoos, para los que el sulfuro es tóxico.

El propio Canfield publica en el mismo número de Nature Geoscience [2] que Fike un estudio según el cual el agua rica en sulfuro solamente llegó al océano en una franja estrecha cercana a la costa de los antiguos continentes. Esto significó que la columna de agua, en vez de ser homogénea estaba estratificada, con diferentes químicas en diferentes capas.

Es decir, al menos localmente se mantuvieron condiciones ferruginosas (ricas en hierro) o ricas en sulfuro a lo largo del Período Ediacárico, mucho después de la Gran Oxidación. En otras palabras, la consideración de diferentes indicadores geoquímicos da lugar a diferentes interpretaciones. El problema es que hay demasiadas pocas muestras como para poder realizar un modelo tridimensional de toda la Tierra que tenga suficiente resolución como para eliminar datos malos.

Por si fuera poca complicación, la variabilidad geográfica de los indicadores redox podría indicar un contexto de deposición inusual o cambios en el indicador tras la deposición más que un cambio en la geoquímica.

Aquella frase de Newton, “[...] mientras que el gran océano de la verdad aparece todo él sin descubrir delante de mí”, parece más apropiada que nunca.

Referencias:

[1]

Fike, D. (2010). Biogeochemistry: Earth's redox evolution Nature Geoscience, 3 (7), 453-454 DOI: 10.1038/ngeo903

[2]

Poulton, S., Fralick, P., & Canfield, D. (2010). Spatial variability in oceanic redox structure 1.8 billion years ago Nature Geoscience, 3 (7), 486-490 DOI: 10.1038/ngeo889

martes, 24 de agosto de 2010

Si una neurona es suficiente, ¡esto es la revolución!


La detección y discriminación de secuencias temporales es fundamental para la función cerebral y es la base de la percepción, la cognición y la respuesta motora. ¿Cuántas neuronas hacen falta para distinguir una secuencia temporal? Según un estudio publicado en Science por investigadores del University College de Londres (Reino Unido) liderados por Tiago Branco una sola, de hecho uno de los minúsculos receptores de las conexiones sinápticas de la neurona, llamados dendritas, puede distinguir con mucha eficacia entre diferentes secuencias temporales en la información de entrada. Esto supone una revolución tanto en la estimación de la capacidad de cálculo del cerebro como en la misma base de cómo se realiza dicha computación que, hasta ahora, se pensaba que requería grandes cantidades de neuronas trabajando juntas.

El cerebro es realmente bueno procesando secuencias de información provenientes del mundo exterior. Por ejemplo, los ordenadores modernos aún tienen sus dificultades para seguir y decodificar una secuencia rápida de palabras habladas que, sin embargo, un niño de cinco años no tendría dificultad alguna en procesar. Aún no se sabe a ciencia cierta qué es lo que hace al cerebro tan bueno a la hora de distinguir una secuencia de acontecimientos de otra, pero la hipótesis de trabajo era que esta tarea era desempeñada por una gran red de neuronas trabajando coordinadamente.

Los investigadores estudiaron las áreas del cerebro que son responsables de procesar la información sensorial proveniente de los ojos y de la cara, en concreto las neuronas piramidales del córtex del ratón [en la imagen, neurona piramidal]. Para explorar cómo estas neuronas respondían a la variación en el orden de un número de inputs, los científicos usaron un láser para activar las dendritas [en la imagen, las ramificaciones que parten del soma celular de la neurona, la mancha verde central] siguiendo pautas muy definidas y registraron las respuestas eléctricas de las neuronas.

El láser produce la fotoliberación de glutamato por absorción de dos fotones; este glutamato, un neurotransmisor, “simula” la actividad sináptica natural de una neurona actuando sobre otra. El mecanismo es generalizable a dendritas de diferentes tipos de neuronas.

Sorprendentemente encontraron que cada secuencia producía una respuesta diferente, incluso cuando se enviaba a una sola dendrita. A partir de estos datos y usando un modelo teórico, el grupo de Branco también demuestra que la probabilidad de que se pueda distinguir dos secuencias entre sí es llamativamente alta.

Lo dicho, ¡la revolución!

Referencia:

Branco, T., Clark, B., & Hausser, M. (2010). Dendritic Discrimination of Temporal Input Sequences in Cortical Neurons Science DOI: 10.1126/science.1189664

lunes, 23 de agosto de 2010

Mejores imágenes de moléculas: uso de la exclusión de Pauli en un microscopio de efecto túnel.


Cuando se emplea un microscopio de efecto túnel (MET) para observar moléculas, éstas aparecen como borrones indiferenciados. Pero una nueva investigación llevada a cabo por el equipo de Ruslan Temirov del Centro de Investigación Jülich (Alemania), cuyos resultados se han publicado en Physical Review Letters, pone de manifiesto que es posible, con una ligera modificación, que el MET dé la estructura de una molécula con mucho más detalle. En este tipo de MET se añade una molécula de hidrógeno o de deuterio a la punta de la sonda.

Un MET funciona acercando una aguja conductora (la sonda) terminada en una punta muy fina, idealmente de un sólo átomo, a un nanómetro de la superficie de la que se quiere obtener la imagen. Cuando se aplica un voltaje a la sonda los electrones fluyen entre la superficie y la sonda, y la conductancia a través de esta unión en cada punto de la superficie se mide y es lo que se usa para hacer la imagen. La conductancia depende de varios factores, incluyendo una característica de la sonda y la superficie llamada densidad de estados, que se refiere al número de estados cuánticos disponibles para los electrones en un rango de energías dado. Estos estados son análogos a los orbitales de los electrones en un átomo o en una molécula. Cuanto mayor es el número de estados, mayor es la conductancia y más brillante es la imagen en ese punto.

En un experimento anterior el grupo de Temirov descubrió que podía conseguir imágenes más detalladas si recubrían con hidrógeno molecular la punta de su sonda antes de escanear una película orgánica delgada depositada sobre la superficie de un metal. Las imágenes resultantes mostraban regiones brillantes para los átomos, separados por bordes que correspondían a los enlaces químicos entre átomos. Pero los investigadores no pudieron afirmar qué es lo que este microscopio “hidrogenado” de efecto túnel (MHET) está midiendo en realidad.

Para resolver ese problema, han repetido ahora el experimento con deuterio, un isótopo más pesado del hidrógeno. Escanearon una molécula orgánica llamada dianhídrido 3,4,9,10-tetracarboxílico-3,4,9,10-perileno (PTCDA, por sus siglas en inglés) [estructura en la imagen, abajo], debido a su facilidad para formar películas bien ordenadas cuando se deposita en superficies metálicas, en este caso en una superficie de oro. Los resultados obtenidos eran idénticos a los obtenidos usando hidrógeno. Según los investigadores los resultados de conductancia son consistentes con una sola molécula de deuterio adherida a la punta de la sonda.

Normalmente la conductancia a través de una unión de MET aumenta exponencialmente conforme la sonda se acerca a la superficie. En este experimento, sin embargo, la conductancia crecía relativamente lenta y, algunas veces, decrecía cuando la sonda se acercaba a la superficie, en el rango de alrededor de un angstrom, es decir, una décima de nanómetro. Las mediciones a partir de este rango proporcionaron unas espectaculares imágenes de alta resolución [en la imagen, arriba MET convencional, en el centro MHET, abajo la estructura de la molécula].

Los investigadores explican estos efectos a partir del principio de exclusión de Pauli, que afirma que dos electrones no pueden estar en el mismo lugar y estado cuántico a la vez. Cuando la sonda se acerca, los electrones de la molécula de deuterio son repelidos por la superficie, y sus orbitales comienzan a traslaparse con los de la sonda. Por tanto los estados electrónicos de la sonda se reordenan, lo que hace que varíe la conductancia.

Temirov y sus colegas explican que la MET convencional solamente puede comprobar estados electrónicos de la muestra que están en un rango limitado de energías, porque la energía de los estados detectados depende del voltaje aplicado. Con la MHET la conductancia también depende de la repulsión generada por el principio de exclusión de Pauli, que afecta a estados de todas las energías, por lo que da un cuadro más completo. Otros investigadores han obtenido resultados similares con microscopios de fuerza atómica, pero la MET es mucho más fácil de usar.

Referencia:

Weiss, C., Wagner, C., Kleimann, C., Rohlfing, M., Tautz, F., & Temirov, R. (2010). Imaging Pauli Repulsion in Scanning Tunneling Microscopy Physical Review Letters, 105 (8) DOI: 10.1103/PhysRevLett.105.086103

Este artículo es la participación de Experientia docet en el X Carnaval de la Física, que este mes acoge Cienciamía.

viernes, 13 de agosto de 2010

Bibendum se transforma en carborundum.


Los neumáticos viejos son difíciles de reciclar, y a menudo terminan acumulándose en vertederos específicos, pero investigadores del Centro de Investigación Mármara perteneciente al Consejo de Investigación Científica y Técnica de Turquía (Tübitak, por sus siglas en turco) han encontrado una nueva manera de tratarlos. Se les hace reaccionar con arena y se obtiene carburo de silicio, un material abrasivo que puede alcanzar los 10.000 € la tonelada.

El carburo de silicio, SiC, cuyo nombre comercial es carborundo o carborundum, se forma cuando los átomos de silicio y carbono se disponen en una red cristalina igual a la del diamante, lo que le confiere al compuesto algunas de sus propiedades más sobresalientes. Así, si en la escala de Mohs de dureza el diamante es el máximo, 10, el carborundo alcanza 9 o más. Tiene, por tanto, una amplia variedad de usos, desde abrasivos y herramientas de corte, a chalecos antibala y frenos cerámicos para coches deportivos. También se le emplea como semiconductor en aplicaciones de alto voltaje.

Habitualmente, el carburo de silicio se produce calentando arena (que es básicamente cuarzo, es decir, dióxido de silicio, SiO2) en un horno eléctrico con carbono obtenido a partir del petróleo o del carbón. La brillante idea del equipo de Tübitak ha sido obtener tanto el carbono como la energía necesarios de los neumáticos.

En primer lugar los neumáticos se gasifican, un proceso similar a quemarlos pero con una cantidad de oxígeno limitada. El resultado es la liberación de una mezcla de hidrógeno (H2) y monóxido de carbono (CO), llamada gas de síntesis, que deja un residuo de carbono elemental amorfo llamado negro de carbono. Los neumáticos también contienen azufre (S), que se añade como parte del proceso de vulcanización que convierte el caucho en un material resistente. La gasificación lo libera en su forma elemental, haciendo que sea fácil de recuperar. Quemar un neumático, por el contrario, produce dióxido de azufre (SO2), que es un contaminante tóxico.

El negro de carbono se mezcla entonces con arena y la mezcla se calienta a una temperatura entre 1400ºC y 2100ºC (dependiendo de las características de los reactivos) en un horno que usa como combustible gas de síntesis. El resultado es carburo de silicio de alta pureza. Bibendum se transforma en carborundum.

Tübitak es una de las nueve entidades que colaboran en un proyecto financiado por la Unión Europea, el proyecto TyGRe (Tyre Gasification Residues) para encontrar aplicación a las 325.000 toneladas de neumáticos que se envían a vertederos en Europa cada año.







jueves, 12 de agosto de 2010

El aprendizaje emocional tiene un circuito neuronal de reserva.


Muchos neurocientíficos son de la opinión de que la pérdida de una región del cerebro llamada amígdala conllevaría la incapacidad del cerebro para formar nuevos recuerdos con contenido emocional. Una nueva investigación realizada por el equipo de Michael Fanselow, de la Universidad de California en Los Ángeles (EE.UU.), indica que esto no es así y que cuando una región cerebral resulta dañada, otras regiones pueden compensar esta pérdida. Los resultados se publican en los Proceedings of the National Academy of Sciences.

El equipo de investigadores pudo constatar que cuando la amígdala no está operativa, una región cerebral relacionada, los núcleos del lecho de la estría terminal, pueden asumir parte de sus funciones. Eso sí, los lechos del núcleo son mucho más lentos aprendiendo y sólo lo hacen si la amígdala no lo hace. En cierto sentido es plasticidad neuronal, cuando la amígdala ha sido dañada y se está viviendo una experiencia emocional (miedo, en el caso de este estudio), los lechos del núcleo entran en acción. Podría decirse que la amígdala tendría una acción inhibitoria de la capacidad de aprendizaje de los lechos del núcleo de la estría terminal.

Se cree que la amígdala es crítica para el aprendizaje y el almacenamiento de los aspectos emocionales de la experiencia y también es el resorte que activa un torrente de sistemas biológicos para proteger el cuerpo en caso de peligro. Los lechos del núcleo de la estría terminal (en la imagen stria terminalis, en negro) son áreas de materia gris que rodean la estría terminal, las neuronas aquí reciben información del córtex prefrontal y el hipocampo y se comunican con varias regiones más primitivas que regulan la respuesta al estrés y los comportamientos de defensa.

Los investigadores se centraron en el aprendizaje del miedo, para el que la participación de la amígdala se cree que es crítica. Pudieron comprobar que un entrenamiento suficiente es capaz de compensar la pérdida del miedo condicionado que resulta tras la lesión y consecuente inactivación de la amígdala. Esto sugiere que debe existir un circuito neuronal que compense la pérdida de la amígdala. Los investigadores comprobaron que este circuito residía en los lechos del núcleo de la estría terminal tras intervenir quirúrgicamente en ratas, primero inactivando la amígdala y posteriormente la amígdala y los lechos del núcleo. Tras esta segunda intervención se perdía completamente la posibilidad de aprender el miedo y su expresión.

Estos resultados refuerzan la imagen de un cerebro plástico, que es capaz de compensar, aunque sea parcialmente, las pérdidas de funciones críticas para la supervivencia.

Referencia:

Poulos, A., Ponnusamy, R., Dong, H., & Fanselow, M. (2010). Compensation in the neural circuitry of fear conditioning awakens learning circuits in the bed nuclei of the stria terminalis Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1005754107

miércoles, 11 de agosto de 2010

Un metamaterial para observar qué ocurre cuando cambia la geometría del espaciotiempo.


Según algunos teóricos, en el momento del Big Bang, nuestro universo puede que no tuviese exactamente tres dimensiones espaciales y una temporal. Igor Smylianinov, de la Universidad de Maryland (EE.UU.), y Evgenii Narimanov, de la Universidad Purdue (EE.UU.), proponen en Physical Review Letters una forma de observar la transición hacia nuestro universo usando los llamados metamateriales, estructuras en las que la propagación de la luz puede ser controlada de forma precisa. Según estos autores, los experimentos en estas estructuras podrían confirmar las predicciones de que un gran flash de radiación acompañaría a los cambios en la estructura del espaciotiempo que podrían haber tenido lugar en el universo primitivo.

A lo largo de la última década se ha profundizado en el conocimiento de los materiales en los que se pueden manipular las propiedades eléctricas y magnéticas a nivel microscópico. Este conocimiento ha llevado a poder hablar por ejemplo de que, en un futuro no demasiado lejano, podrán construirse dispositivos como lentes perfectas o capas de invisibilidad. Algunos resultados se han obtenido ya en esta dirección experimentalmente usando metamateriales, pequeños cables, anillos y otras estructuras que son del orden de magnitud de la longitud de onda de la luz.

Según Smolyaninov y Narimanov estos materiales adaptados podrían usarse para explorar geometrías no habituales del espaciotiempo. Usualmente cuando una onda luminosa atraviesa un material, si la longitud de onda se acorta, su frecuencia aumenta, y esto en todas direcciones igualmente. Pero estos autores describen un metamaterial en el que la relación entre frecuencia y variaciones espaciales de los campos electromagnéticos es muy anisotrópica, es decir, varía mucho con la dirección que se considere. Para algunas configuraciones de campos, se podría incrementar la longitud de onda efectiva en una dirección concreta y la frecuencia global seguiría disminuyendo.

En este artículo los autores afirman demostrar que esta, así la llaman, relación hiperbólica entre las variaciones espaciales y temporales de las ondas electromagnéticas es exactamente la misma que se obtendría en un espaciotiempo que tuviese dos dimensiones temporales y dos espaciales. Una propiedad de esta geometría sería que, para una frecuencia dada, existe un número infinito de modos del campo electromagnético, mientras que en el espaciotiempo “normal” podría haber muchos, pero no un número infinito.

Los investigadores advierten de que estos materiales no permitirían cosas “raras” como máquinas del tiempo (una posibilidad teórica si tienes dos dimensiones temporales), porque las frecuencias a las que tiene lugar el fenómeno son muy limitadas y se ve impedido por las pérdidas de energía, que no se consideran en la teoría. Pero la manipulación de estos materiales sí podría permitir a los experimentadores observar qué ocurre cuando la geometría del espaciotiempo cambia sustancialmente. Por ejemplo, si las muchas dimensiones extras de la teoría de cuerdas se hubiesen “enrollado” repentinamente en el universo primitivo, dejando sólo tres dimensiones espaciales, algunos teóricos afirman que se habría producido un gran flash de radiación, de alguna forma similar al Big Bang. Este flash habría ocurrido porque toda la energía de los infinitos modos en el espaciotiempo de mayores dimensiones se habría liberado de repente.

Smolyaninov y Narimanov proponen construir una estructura que incluya capas de finos cables de galio, que se hace más conductor cuando se funde un poco por encima de la temperatura ambiente. Según sus cálculos, la fusión cambiaría el metamaterial de normal a hiperbólico, por lo que se podría observar un gran flash mientras se enfría.

Referencia:

Smolyaninov, I., & Narimanov, E. (2010). Metric Signature Transitions in Optical Metamaterials Physical Review Letters, 105 (6) DOI: 10.1103/PhysRevLett.105.067402

martes, 10 de agosto de 2010

El análisis es fiable: ¿con cuánta anticipación quieres saber que tienes Alzheimer?


Ya está aquí. El equipo de investigadores de la Iniciativa de Neuroimágenes de la Enfermedad de Alzheimer (ADNI, por sus siglas en inglés), liderado por John Trojanowski, de la Universidad de Pensilvania (EE.UU.), del que hablábamos en La incómoda verdad sobre la enfermedad de Alzheimer, informa en Archives of Neurology que un análisis del líquido espinal puede tener un 100 % de precisión a la hora de identificar pacientes con una pérdida de memoria significativa que van de camino a desarrollar la enfermedad de Alzheimer.

Después de décadas de que no pareciese estar pasando nada, cuando esta enfermedad progresiva parecía intratable y cuando el diagnóstico sólo era confirmable en una autopsia, se abre una perspectiva completamente nueva.

El Alzheimer comienza unos diez años o más antes de que aparezcan los primeros síntomas. Y en el momento que hay síntomas ya puede ser muy tarde para salvar el cerebro. Por eso es tan importante disponer de un método para identificar a las personas que contraen la enfermedad y que esas personas puedan participar como sujetos de estudio en las investigaciones para ver cuánto tiempo tardan en aparecer los síntomas y para probar distintos fármacos que puedan ralentizar o detener el proceso.

Ahora viene la gran pregunta: estando el análisis ya disponible, ¿con cuánta anticipación quieres saber que tienes Alzheimer?

Algunos pacientes con pérdidas graves de memoria no tienen esta enfermedad. Podría usarse el análisis en los casos en los que se quiere estar seguro del diagnóstico. Y podría ofrecerse a personas con síntomas más leves que quieran saber si están desarrollando Alzheimer.

El estudio incluyó a más de 300 pacientes de setentaitantos años, 114 con la memoria normal, 200 con problemas de memoria y 102 con diagnóstico de enfermedad de Alzheimer. Se analizó su líquido cefalorraquídeo en busca de beta amiloide, un fragmento proteico que forma placas en el cerebro de los afectados por la enfermedad, y de tau, una proteína que se acumula en las neuronas muertas y moribundas del cerebro. El ensayo fue doble ciego. Los investigadores que analizaban los datos desconocían la condición de los sujetos analizados y éstos desconocían los resultados de los análisis.

Prácticamente cada persona con Alzheimer dio positivo en los análisis. Aproximadamente 3 de cada 4 personas con dificultades cognitivas leves, pérdidas de memoria que pueden preceder al Alzheimer, presentaban proteínas como las de la enfermedad en el líquido cefalorraquídeo. Y cada una de estas personas que dio positivo desarrolló la enfermedad en los cinco años siguientes. Y aproximadamente un tercio de las personas con memorias normales tenían líquidos cefalorraquídeos que indicaban Alzheimer. Los investigadores sospechan que estas personas tendrán problemas de memoria.

La hipótesis con más amplia aceptación indica que la acumulación de la beta amiloide y la proteína tau es necesaria para que se desarrolle la enfermedad y que el evitar esta acumulación podría evitarla. Pero aún no se sabe qué ocurre cuando se acumula en el cerebro de personas con memorias intactas. Podrían ser un factor de riesgo como los altos niveles de colesterol. Muchas de las personas con altos niveles de colesterol no sufren nunca un ataque al corazón. O podría representar que el Alzheimer habría comenzado ya y que, si la persona vive lo suficiente, desarrollará todos los síntomas de la enfermedad.

En cualquier caso, la precisión mostrada por los resultados de los análisis del líquido cefalorraquídeo nos dicen que los días de la confirmación del diagnóstico de Alzheimer en la autopsia han terminado, y que los de que sólo se pueda detectar la enfermedad cuando se desarrollan todos los síntomas parece que también.

Referencia:

De Meyer, G., Shapiro, F., Vanderstichele, H., Vanmechelen, E., Engelborghs, S., De Deyn, P., Coart, E., Hansson, O., Minthon, L., Zetterberg, H., Blennow, K., Shaw, L., Trojanowski, J., & , . (2010). Diagnosis-Independent Alzheimer Disease Biomarker Signature in Cognitively Normal Elderly People Archives of Neurology, 67 (8), 949-956 DOI: 10.1001/archneurol.2010.179

lunes, 9 de agosto de 2010

Fusión retrógrada: el silicio funde al enfriarse.


Estamos acostumbrados a que cuando hace frío suficiente el agua se vuelva sólida (hielo o nieve) y que cuando la temperatura aumenta se descongele, esto es, se funda. Investigadores del Instituto de Tecnología de Massachussets (EE.UU.) encabezados por Tonio Buonassisi informan en Advanced Materials, de que un compuesto de silicio se funde (se vuelve líquido) cuando se enfría. Este efecto puede tener aplicaciones técnicas en la purificación del silicio para electrónica ya que al fundirse se separa de sus impurezas.

Este fenómeno, que se conoce como “fusión retrógrada" y que se ha observado antes en algunos otros materiales, puede tener varias causas. En el caso del silicio el efecto es la consecuencia de que el material se vuelve supersaturado cuando se enfría. Para poder afirmarlo así el equipo de investigadores siguió el proceso por fluorescencia de rayos X dependiente de la temperatura, usando como fuente un sincrotón.

Los investigadores tomaron una muestra de silicio (en la imagen el trocito naranja) dopada (contaminada) con lo que los químicos llamamos metales de transición 3d, en este caso cobre, hierro y níquel, y la calentaron a 1000 ºC (414ºC por debajo de la temperatura de fusión normal del silicio). Entonces, al enfriar lentamente este compuesto por debajo de 900 ºC, los investigadores observaron la formación de pequeñas gotas de líquido que contenían tanto silicio como las tres impurezas. Conforme se continuaba enfriando las impurezas se iban separando más del silicio en las gotitas. Finalmente el material se solidificó completamente una vez que la temperatura cayó por debajo del punto eutéctico (alrededor de 700 ºC).

Uno de los grandes retos de las industrias fabricantes de semiconductores es regular las mezclas del silicio con sus impurezas. Este fenómeno se puede usar para extraer impurezas en el grado adecuado regulando la curva de temperaturas. Por otra parte, hay aplicaciones electrónicas que implican introducir deliberadamente impurezas en el silicio, por lo que este descubrimiento puede ayudar a regular las interacciones químicas dentro de estos materiales.

Referencia:

Hudelson, S., Newman, B., Bernardis, S., Fenning, D., Bertoni, M., Marcus, M., Fakra, S., Lai, B., & Buonassisi, T. (2010). Retrograde Melting and Internal Liquid Gettering in Silicon Advanced Materials DOI: 10.1002/adma.200904344



Menú transgénico: de primero cerdo ecológico, de segundo salmón con "ventajas".


No hace mucho el anuncio de la empresa AquaBounty de que estaba próxima la autorización para la comercialización de un salmón transgénico de crecimiento rápido ocupaba titulares de prensa en todo el mundo. Hasta ahora cuando se habla de transgénicos uno suele pensar en maíz o soja, pero hay toda una lista de animales procedentes de la ingeniería genética a la espera de permiso para ocupar los lineales de tu supermercado habitual. Los objetivos en su desarrollo no han sido sólo los de desarrollar animales más productivos, también más ecológicos o más saludables. Repasamos los proyectos más interesantes.

Sigue en Amazings.es

viernes, 6 de agosto de 2010

La Tierra del cambio.


La Tierra es un sistema cíclico que ha estado funcionando un tercio de la edad del universo. Los microbios y las plantas toman incesantemente carbono, nitrógeno y oxígeno de la atmósfera y los liberan de diversas maneras. El agua se evapora de los océanos, cae en forma de lluvia sobre la tierra y fluye de regreso a los océanos. Al hacerlo se lleva por delante cordilleras montañosas completas, que después se levantan en otro lugar a partir de los sedimentos del fondo marino cuando los océanos se ven estrujados hasta cerrarse. Conforme se reabren nuevos océanos los volcanes escupen nueva corteza; la vieja corteza terrestre se destruye cuando las placas tectónicas regresan a las profundidades de las que, en última instancia, esos volcanes tomaron su fuego.

La Tierra tiene recursos materiales finitos. Pero gracias a su calor interno propio y a la luz del Sol tiene suministros casi ilimitados de energía con los que rehacerse en un amplio rango de escalas temporales. El agua permanece en la atmósfera un par de semanas; el dióxido de carbono se queda en los océanos miles de años; las montañas se levantan y desaparecen en decenas de millones de años; los océanos se abren y cierran en más tiempo aún.

Y para algunas cosas, en algunos lugares, hay una especie de quietud. El argón en la atmósfera simplemente está ahí, inerte; los cratones cristalinos del centro de los continentes ni se entierran ni se rompen por la tectónica de placas, aunque alguna vez se encuentran sumergidos en mares poco profundos y cubiertos de sedimentos mientras se deslizan de aquí para allá. No todo en todas partes parece fluir. Pero tenemos la sensación de que, cuanto más detenidamente se estudian estas “islas de estabilidad”, menos estables parecen.

Un estudio publicado en Nature por un equipo de la Universidad Joseph Fourier de Grenoble (Francia) cimenta esta sensación de forma espectacular. En el centro de la Tierra, debajo de las montañas y de los océanos; debajo de la delgada y frágil corteza; debajo del rocoso y fluido manto y del agitado núcleo externo de hierro líquido, hay un núcleo sólido. Si había algo en este planeta que pareciese poco probable que participase en sus ciclos sin fin era esta bola de metal, de 1.200 kilómetros de diámetro, sometida a unas presiones terribles desde todas direcciones por el peso de todo un planeta. Un centro estático y denso, alrededor del cual, todo gira.

Se sabe desde hace tiempo que el núcleo interno no está exento de cambios. Se suponía, eso sí, que los cambios sólo ocurrían en una dirección, simplemente se hacía más grande. La Tierra se está enfriando conforme pierde tanto el calor atrapado durante su proceso de creación como el que genera la desintegración de los elementos radioactivos que alberga. De hecho, es este enfriamiento el que provoca la lenta circulación del manto, que a su vez origina la tectónica de placas, responsable de los ciclos continuos de creación y destrucción de la superficie. Según se enfría, el núcleo externo se solidifica pasando a engrosar el núcleo interno. Se cree que este proceso hace que el núcleo interno crezca a un ritmo de unos 30 centímetros cada siglo.

La interesantísima hipótesis que proponen Thierry Alboussière, Renaud Deguen y Mickaël Melzani en el artículo de Nature es que este crecimiento lento es un efecto neto, lo que queda cuando una tasa de solidificación mayor se ve compensada por una tasa de fusión casi igual de grande. Este concepto surge de la hasta ahora inexplorada idea de que el núcleo interno esférico está muy ligeramente desplazado con respecto al centro de masas del planeta, de tal manera que un lado (el occidental) está ligeramente más profundo que el otro. En el lado más profundo la presión es mayor, por lo que el hierro se solidificaría. En el que está algo más elevado la presión es menor, y el hierro se funde.

El efecto neto de esta asimetría, suponiendo que continuase indefinidamente, sería lo que los autores llaman “traslación convectiva”: el hierro que se une al núcleo en el oeste se mueve lentamente a través de él hasta que sale, fundiéndose, por el este. A la velocidad que los investigadores sugieren para este proceso, un átomo de hierro necesitaría en promedio 80 millones de años en regresar al núcleo externo desde su unión al núcleo interno., si bien la deformación que este flujo impondría en el núcleo sólido complicaría bastante el esquema en formas que tienen todavía que estudiarse.

Este modelo podría ser capaz de explicar algunas cosas raras del núcleo interno, entre ellas que las ondas sísmicas lo atraviesan de forma diferente si lo hacen de norte a sur que si lo hacen de este a oeste, y su entorno, incluyendo la existencia de una capa particularmente densa de fluido justo por encima. También es posible que pueda tener implicaciones más allá del núcleo, que pueda explicar detalles de la circulación del núcleo externo, y por tanto de cómo varía el campo magnético terrestre con el tiempo.

Incluso si nuevas pruebas apoyan esta hipótesis, es probable que la idea de un núcleo interno en un continuo ciclo de recreación no afecte demasiado a los paisajes y ecosistemas que siguen sus propios ciclos 5.000 kilómetros más arriba. El efecto es más próximo al puramente estético: el de una Tierra en cambio permanente.

Referencia:

Alboussière, T., Deguen, R., & Melzani, M. (2010). Melting-induced stratification above the Earth’s inner core due to convective translation Nature, 466 (7307), 744-747 DOI: 10.1038/nature09257

miércoles, 4 de agosto de 2010

El momento angular orbital de la luz se puede determinar usando un orificio triangular.


La luz puede tener un “momento angular orbital”, un tipo de rotación que es más parecida a un planeta orbitando el Sol que a un planeta girando sobre sí mismo. Medir esta propiedad es complicado, pero un grupo de la Universidad Federal de Alagoas (Brasil) encabezado por Jandir Hickmann informa en Physical Review Letters de que un rayo de luz a través de un orificio triangular crea una patrón triangular de puntos que indica directamente el momento angular orbital de la luz incidente. Esta técnica sencilla añade otra herramienta para explorar esta propiedad inusual de la luz, que podría usarse algún día para codificar información cuántica.

Cuando un rayo de luz tiene momento angular puede haber dos contribuciones al mismo. El momento angular de spin, que corresponde a la polarización circular a derecha o izquierda de la luz, lo que implica que el campo eléctrico (recordemos que la luz es una radiación electro-magnética) rota en el sentido de las agujas del reloj o al contrario con respecto al sentido de avance del rayo. El momento angular orbital (que ha sido reconocido como algo real en los últimos 20 años) aparece si la dirección del campo eléctrico varía en el rayo. Por ejemplo, imagina que puedes ver el campo eléctrico de un rayo de luz con momento angular orbital que viene directo hacia tus ojos y que este rayo de luz tiene el diámetro de la esfera de un reloj. En una fase, es decir, en un tiempo dado, una aguja que indicase el campo eléctrico en la esfera del reloj puede dar una sola vuelta a la esfera (una unidad de momento angular orbital), dos (dos unidades), etc., de tal manera que cuando miramos el avance del rayo desde fuera, la aguja que representa el campo eléctrico va marcando la forma de un sacacorchos. El número de vueltas de la aguja, realmente del campo eléctrico, es lo que se llama “carga topológica”. Esta propiedad es la que se pretende poder controlar para que porte información, exactamente como se hace con la polarización.

Los experimentos de difracción generan patrones de puntos de luz y sombra que los físicos han venido usando para revelar las propiedades de la luz visible, pero las técnicas que existían para medir el momento angular orbital son pocas y más complicadas. Cuando Hickmann y sus colegas simularon la difracción de rayos que pasaban a través de orificios de varias formas, encontraron que el uso de un triángulo isósceles tenía una consecuencia inesperada: se pueden contar los puntos de luz para encontrar la carga topológica. Los investigadores verificaron esta predicción experimentalmente.

El equipo calculó primero y observó después que, una vez que el rayo está centrado en el agujero, genera un patrón inusual: una retícula triangular de puntos. El brillo de los puntos individuales depende de las contribuciones combinadas de la luz proveniente de las distintas localizaciones en el orificio triangular. Los cálculos predecían que los puntos más brillantes formarían un triángulo cuyo tamaño (el número de puntos en cada lado) sería el valor de la carga topológica más uno. Además este patrón triangular estaría girado 60 grados a un lado o a otro con respecto al orificio, dependiendo del signo de la carga (la dirección de la rotación de la luz). De esta manera una simple apertura triangular proporciona un método sencillo para medir tanto la magnitud como el signo del momento angular orbital.

Referencia:

Hickmann, J., Fonseca, E., Soares, W., & Chávez-Cerda, S. (2010). Unveiling a Truncated Optical Lattice Associated with a Triangular Aperture Using Light’s Orbital Angular Momentum Physical Review Letters, 105 (5) DOI: 10.1103/PhysRevLett.105.053904

martes, 3 de agosto de 2010

La posibilidad de crear nuevos recuerdos depende de una molécula.


Los neurocientíficos se han preguntado durante mucho tiempo cómo las conexiones individuales entre las células cerebrales pueden ser tan diversas y mantenerse en un estado que permita almacenar nuevos recuerdos, la base del aprendizaje. Un equipo liderado por Inna Slutsky de la Universidad de Tel Aviv (Israel) ha publicado en Neuron un artículo en el que describe qué es lo que hace que algunos recuerdos se guarden. La clave está en el ácido gamma-aminobutírico (GABA, por sus siglas en inglés) un neurotransmisor que podría ser el principal factor a la hora de regular cuántos nuevos recuerdos podemos generar.

Los recuerdos se almacenan en forma de conexiones sinápticas entre las neuronas de nuestro cerebro. Se sabía que la fortaleza de las sinapsis individuales es muy variable, incluso al nivel de la neurona aislada. Esta variabilidad determina en último término si, y como, se almacena un nuevo recuerdo, y la clave de esta variabilidad está en el GABA.

En el hipocampo, una de las principales áreas del cerebro en lo que se refiere al aprendizaje y la memoria, es también una en la que la robustez de las conexiones es más variada. Algunas neuronas están fuertemente conectadas con otras, mientras que otras parecen ir por libre.

En este trabajo el equipo de investigadores ha examinado las sinapsis individuales en el hipocampo mediante espectroscopía de transferencia de energía de resonancia de Förster (FRET, por sus siglas en inglés; la F suele decirse que es fluorescencia, pero no es técnicamente correcto). Para ello marcaron los receptores GABAB con CFP e YFP, proteínas fluorescentes que presentan FRET en proximidad, a tan sólo 10 nanometros. Esto ya es todo un logro técnico, ya que se ha medido la interacción entre moléculas de sinapsis individuales, no neuronas, ni tejidos. La experimentación se llevó a cabo en cultivos neuronales y en secciones de cerebro de rata.

Mientras observaban el cerebro en su estado de reposo, cuando estaba “al ralentí” antes de intentar memorizar una lista de objetos o después de que un recuerdo había sido almacenado, los investigadores pudieron realmente “ver” las localizaciones de las sinapsis de diferentes ramas dendríticas en la red neuronal y detectar los cambios. Las ramas cercanas a cuerpos celulares presentaban un número mayor de sinapsis débiles, mientras que en las ramas más distantes aparecían menos sinapsis pero más fuertes.

La diferencia aparentemente está en el GABA. Los investigadores constataron, por una parte, que la actividad de los receptores de GABA está regulada de forma diferente a lo largo del árbol dendrítico, y, por otro, que las mayores concentraciones de GABA cerca de una sinapsis inducían una mayor activación de sus receptores, que tienen un efecto inhibitorio, debilitando la fortaleza sináptica basal. Como resultado, según los autores, el GABA haría a ésta más dúctil, es decir, que es más fácil que pueda formar nuevas conexiones correspondientes a nuevos recuerdos. Es interesante señalar que la beta-amiloide, la proteína cuyas placas se asocian a la enfermedad de Alzheimer, tiene un efecto en las sinapsis opuesto al de GABA, lo que sugeriría la posibilidad que el declive que provoca la enfermedad lo estén generando sinapsis demasiado fuertes.

Referencia:

Laviv, T., Riven, I., Dolev, I., Vertkin, I., Balana, B., Slesinger, P., & Slutsky, I. (2010). Basal GABA Regulates GABABR Conformation and Release Probability at Single Hippocampal Synapses Neuron, 67 (2), 253-267 DOI: 10.1016/j.neuron.2010.06.022

lunes, 2 de agosto de 2010

Así se las ponían a Fernando VII: control de la orientación de moléculas mediante láser.


El reformado con vapor del metano es uno de los procesos químico industriales a gran escala más antiguos. Se emplea para obtener gas de síntesis, el llamado sintegas, una mezcla de hidrógeno y monóxido de carbono que es el punto de partida de muchos procesos industriales (por ejemplo, el proceso de Fischer-Trops permite obtener hidrocarburos líquidos a partir de sintegas, incluida gasolina). El reformado con vapor del metano es el proceso que actualmente produce cerca de la mitad del hidrógeno que se consume a nivel mundial y, conforme aumenta el interés en el hidrógeno como combustible, se hace cada vez más importante conseguir que esta reacción sea lo más eficiente posible, mejorando la interacción del catalizador metálico usado y las moléculas de metano. El paso que determina la eficiencia es la activación del enlace C-H, por lo que comprender este proceso es crítico.

Las moléculas de metano solo se adhieren a la superficie del catalizador si su energía (suma de la translacional y la vibracional) es suficiente para superar la barrera de activación energética en el momento de la colisión. Es por tanto muy importante la posición (alineación) de las moléculas en el momento de la colisión para la reacción en la superficie del catalizador, pero hasta ahora sólo ha sido posible estudiar esto en moléculas con dipolos permanentes, cosa de la que carece el metano.

Un grupo de investigadores de la Escuela Politécnica Federal de Lausana (Suiza) encabezado por Rainer Beck ha usado un nuevo tipo de láser infrarrojo para preparar las moléculas antes de la colisión, llevándolas a estados energéticos especificados, y así poder observar su reactividad. Los resultados se publican en Science.

Tanto la dirección (paralela o perpendicular a la superficie del catalizador de níquel) en la que vibraban los enlaces C-H como la energía vibracional podían ser modificados por los científicos. Cuando los investigadores midieron la reactividad de las moléculas de metano en función de su dirección se encontraron con la sorpresa de que las que vibraban en paralelo eran un 60% más reactivas que las que vibraban perpendicularmente, en abierta contradicción con los modelos existentes.

Se abre pues toda una gama de vías de investigación tanto a nivel fundamental, teórico y experimental, como aplicado: nuevos catalizadores, nuevos láseres, la combinación de ambos, nuevos reactivos. ¿Llegará un día en que podamos controlar en un proceso industrial la dirección de colisión óptima entre dos moléculas?

Referencia:

Yoder, B., Bisson, R., & Beck, R. (2010). Steric Effects in the Chemisorption of Vibrationally Excited Methane on Ni(100) Science, 329 (5991), 553-556 DOI: 10.1126/science.1191751




domingo, 1 de agosto de 2010

Einstein y...Niels Henrik David Bohr


Niels Bohr fue uno de los fundadores de la física del siglo XX, aunque sea recordado mayormente por haber desarrollado la conocida como interpretación de Copenhague de la mecánica cuántica. Intelectualmente a la par, Einstein y Bohr mantuvieron una estrecha amistad, llena de conversaciones animadas y debates científicos. Los dos representan los dos pilares de la física moderna, la relatividad y la mecánica cuántica.

Niels Bohr comenzó a labrarse una reputación internacional cuando, en 1913, publicó la primera descripción del aspecto que tendría un átomo de hidrógeno: incluyendo un núcleo y el recientemente descubierto electrón. El modelo del átomo de Bohr se basaba en el modelo estrictamente clásico de Ernest Rutherford al que el físico danés añadió la nueva idea de que la energía no era continua, sino que venía en paquetes llamados cuantos. Este apaño de mezclar una vieja teoría con una nueva terminó no siendo la solución perfecta, pero fue el primer paso en el camino hacia la comprensión de la física atómica y representó el comienzo de un maridaje de Bohr con la física atómica que duraría toda su vida. Einstein se interesó inmediatamente por este trabajo. Solamente era seis años mayor que Bohr, y también estaba comenzando a hacerse un nombre; los dos eran colegas naturales, y cada uno siguió de cerca el trabajo del otro.

A lo largo de la siguiente década tanto Einstein como Bohr crecieron en fama y en estatura intelectual. Einstein se hizo mundialmente famoso cuando su teoría general de la relatividad fue comprobada experimentalmente en 1919, mientras que su trabajo le había proporcionado una cátedra a Bohr en la Universidad de Copenhague en1916. En 1920 comenzaba a funcionar un centro creado para él por la Universidad, el Instituto de Física Teórica (actualmente Instituto Niels Bohr; se creó con fondos en su mayoría provenientes de la empresa de cervezas Carlsberg, la misma que llevaba financiando los viajes de estudios de Bohr en los últimos años; desde 1931 hasta su muerte Bohr viviría como huésped en un palacete que fue propiedad del fundador de la empresa).

El primer encuentro entre Einstein y Bohr tuvo lugar en 1920 en Berlín. Como si se conociesen de toda la vida, hablaron de relatividad y física atómica, acerca de la creciente preocupación de Einstein de que la física cuántica estaba abandonando las leyes de la causalidad, acerca de si la luz era una onda o una partícula, acerca, en definitiva, de todo lo que estaba ocurriendo en el mundo científico. Poco después de esta reunión ambos escribieron cartas en las que expresaban la experiencia tan formidable que había sido. Einstein a Bohr: “No a menudo en la vida un ser humano me ha causado tanta alegría por su mera presencia como tú has hecho”. Bohr a Einstein: “Conocerte y hablar contigo ha sido una de las mayores experiencias que nunca haya tenido”.

En 1924, Bohr propuso una teoría junto a Hendrik Anton Kramers y John Clarke Slater que capturó brevemente la imaginación de sus contemporáneos como una posible explicación a cómo interactúan la luz y la materia. La teoría BKS, como se la conoce, resultó ser incorrecta, pero es digna de mención por dos motivos. El primero es que rechazaba la existencia de partículas de luz, insistiendo en que la luz era una onda y sólo una onda. En esa época, la mayor parte de la comunidad de físicos estaba de acuerdo en que la luz estaba constituida por cuantos de energía, tal y como Einstein había predicho en 1905 (efecto fotoeléctrico). Bohr sería uno de los últimos en apoyar la idea de que la luz era simultáneamente una onda y un corpúsculo (Einstein fue el primero) y es interesante hacer notar durante cuánto tiempo rechazó la teoría corpuscular de la luz. Es llamativo que, de igual forma que Bohr fue uno de los últimos en aceptar las partículas de luz, una vez que estuvo convencido lo hizo plenamente y sin reservas: apoyó, como converso que era, más fervientemente que nadie el concepto aparentemente absurdo de que la luz era tanto una onda como un corpúsculo, dependiendo de cómo la midieses. Este tipo de cambio de dogma intelectual es muy infrecuente, muchos científicos acabaron su carrera investigadora por no poder aceptar este tipo de cambios; Einstein sería uno de ellos. Einstein escribiría de Bohr treinta años después: “Expone sus opiniones como alguien que está siempre buscando a tientas y nunca como alguien que se cree en posesión de la verdad definitiva”. La grandeza del genio de Bohr estuvo en su increíble capacidad para mantener una mente abierta.

El segundo punto de interés de la teoría BKS es que fue la primera vez en la que Einstein y Bohr estuvieron claramente en campos opuestos. La teoría BKS abandonaba la causalidad y eso era algo que Einstein no estaba dispuesto a aceptar, lo que puso a muchos científicos frente a un dilema. Muchos de ellos respetaban tanto la inteligencia de Einstein y su liderazgo que les resultaba difícil apoyar una teoría que él rechazaba. En un mundo ideal, estos conflictos personalistas no deberían importar a la hora de determinar la corrección objetiva de una teoría, pero incluso los científicos son humanos. El hecho cierto es que tener a dos de los más grandes científicos del momento enfrentados dejó a muchos de sus colegas desubicados. Muchos se negaban a comentar qué científico pensaban que tenía razón, y los que lo hacían estaban muy incómodos con la situación. Cuando se vio forzado a tomar partido, Paul Ehrenfest, amigo íntimo de Einstein, lloró (literalmente) al declarar que pensaba que el punto de vista de Bohr era el correcto.

Pero pronto todo el mundo tomó partido. La quinta conferencia Solvay, celebrada en octubre de 1927, ha pasado a la historia como uno de los diálogos intelectualmente más transcendentes de la historia contemporánea. Todo el mundo, incluido Einstein, veía la nueva mecánica cuántica como una herramienta matemática muy potente a la hora de predecir cómo funcionaban tanto átomos como partículas subatómicas. Pero había desacuerdos sobre las implicaciones de esa herramienta matemática. Algunos, liderados por Bohr y Werner Heisenberg, creían que la mecánica cuántica era la última palabra. Si las matemáticas decían que el futuro de átomo no era completamente preciso, entonces, simplemente, no lo era. En el otro lado estaban otros cuantos, liderados por Einstein y Erwin Schrödinger, que afirmaban que la mecánica cuántica era una maravillosa herramienta estadística, pero que en la realidad los átomos sí se comportaban con absoluta precisión y algún día, de alguna manera, los científicos desarrollarían teorías completamente nuevas que darían formalismo a esta idea.

Las discusiones ocuparon a los científicos día y noche. Uno de los participantes, Otto Stern, ofreció una narración vívida de la conferencia, describiendo como cada mañana Einstein llegaba al desayuno con una nueva contraargumentación y cada tarde aparecía Bohr con una nueva refutación. Estas discusiones han sido elevadas a la categoría de leyenda, y se las conoce como los debates Bohr-Einstein. De hecho, incluso los participantes parecían estar sobrecogidos ante lo que estaba ocurriendo en esta conferencia. En 1949 Bohr escribió un ensayo, “Discusión con Einstein sobre los problemas epistemológicos en la física atómica”, para el libro “Albert Einstein, filósofo-científico”, en el que atribuye el mérito a los ingeniosos experimentos mentales propuestos por Einstein de haber sido el catalizador que le permitió llegar a comprender lo que ocurre en el mundo atómico. Si bien estos debates entre Einstein y Bohr se suelen describir como beligerantes, Bohr mismo los recordaría como bastante agradables. En el ensayo que mencionábamos, Bohr se refiere a los nuevos experimentos mentales de Einstein como “graciosos” y, Einstein en plan de burla preguntaba si “las autoridades providentes recurrían a las tiradas de dados”. En el transcurso de la conferencia las cosas se volvieron en contra de Einstein completamente. Los que antes de la conferencia habían tenido dudas, al final de la misma aceptaban la versión de Bohr de la mecánica cuántica. Esta versión llegó a ser conocida como la interpretación de Copenhague (tanto Bohr como Heisenberg eran profesores de esa universidad en el momento de celebrase la conferencia).

Einstein, sin embargo, nunca aceptó la interpretación de Copenhague, y los debates entre Einstein y Bohr continuaron durante décadas. En la sexta conferencia Solvay, celebrada en Bruselas en 1930 (y a la que corresponde la imagen, tomada por Ehrenfest), Einstein presentó un nuevo experimento mental: si una caja llena de radiación fuese dispuesta de tal manera que estuviese sobre una balanza, y que un reloj controlase que un fotón y sólo un fotón escapase de la caja en un momento concreto, se podría medir perfectamente el cambio de peso de la caja. Por tanto, y de forma simultánea, se podría medir el tiempo y la cantidad de energía de ese fotón, en abierta contradicción con el principio de incertidumbre de Heisenberg, que afirmaba que esas dos magnitudes no podían conocerse con precisión a la vez. Bohr estuvo perplejo durante unas doce horas, llegando a decir “sería el fin de la física si Einstein tuviese razón”. Pero a la mañana siguiente Bohr apareció con una refutación (además una que escoció a Einstein): teniendo en cuenta la teoría de la relatividad, al retroceder la caja debido a la emisión del fotón, el tiempo mismo del marco de referencia de la caja se vería afectado. El tiempo, después de todo, no podía medirse de forma precisa. Los dos hombres continuaron la discusión pero esa fue la última conferencia Solvay a la que asistiría Einstein, ya que en 1933 abandonaría Europa para nunca más volver.

Volverían a encontrarse en los Estados Unidos cuando Bohr visitó Princeton. Y seguían con la misma dinámica. Bohr también refutó uno de los más famosos experimentos mentales de Einstein, el argumento Einstein-Podolsky-Rosen. Bohr nunca convenció a Einstein, como no lo consiguió ningún otro físico, de que aceptara la interpretación de Copenhague.

A pesar de la Resistencia de Einstein a aceptar la interpretación de Copenhague, él consideraba que el desarrollo de la mecánica cuántica había sido una enorme logro, uno que debería incorporarse a la “teoría verdadera”, sea esta la que fuese, que tendría que desarrollarse dentro de no demasiado tiempo. Einstein también consideraba asombrosa la aportación de Bohr a la mecánica cuántica. En el ensayo que escribió en 1949 para “Albert Einstein, filósofo-científico”, Einstein afirmaría: “El que esta base tan insegura y contradictoria fuese suficiente para permitir a un hombre, con el instinto y tacto únicos de Bohr, descubrir las leyes principales de las líneas espectrales y de las capas de los electrones de los átomos, junto con su importancia para la química, me parece como un milagro; y me sigue pareciendo un milagro incluso hoy”.

A pesar de una vida de disputas acerca de la mecánica cuántica, la amistad entre estos hombre se mantuvo sólida y sincera, ayudada por una tremenda admiración de la inteligencia genial del otro.