martes, 29 de mayo de 2012

Midiendo isótopos: La medicina diagnóstica de los futuros viajes espaciales.




Un astronauta (o cosmonauta) que permanezca en el espacio durante un tiempo prolongado se expone a perder entre el 1 y el 2 por ciento de su masa ósea por mes. De hecho, el debilitamiento extremo de los huesos es uno de los riesgos médicos más evidentes en los viajes espaciales de larga duración.

Pero no hay que irse al espacio para encontrar este problema. Aproximadamente la mitad de las personas de más de 50 años de los países desarrollados sufren riesgo de osteoporosis, que es como se conoce la pérdida de masa ósea. Además distintas enfermedades, en concreto algunos tipos de cáncer, presentan también este síntoma.

A la hora de diagnosticar la osteoporosis el método habitual es una simple radiografía. Cuanto más sano esté el hueso más calcio tiene, se dice entonces que es más denso, y es más opaco a los rayos X. El problema de este método es que siempre es a posteriori, es decir, no puede detectar la pérdida de masa ósea cuando comienza a producirse, sino sólo cuando presenta síntomas asociados, roturas y/o dolor básicamente, o bien el médico sospecha que puede estar produciéndose por estar el paciente en un grupo de riesgo. En el caso de los astronautas con estancias prolongadas en el espacio hay que cruzar los dedos además, porque de momento no hay aparatos de rayos X en la estación espacial.

Por todo lo anterior sería muy conveniente disponer de un método analítico sencillo, como un análisis de orina. Puede parecer chocante determinar la densidad de los huesos con un análisis de orina, pero no lo es tanto si dejas de considerar el calcio como un sólo elemento químico.

Efectivamente, cuando hablamos del calcio, ya sea en su ingesta o en su metabolismo, hablamos de él como un sólo elemento químico. Y oficialmente lo es. Pero a efectos prácticos, como tuvimos ocasión de explicar en Zientziateka Bilbao, los distintos isótopos de los elementos tienen comportamientos fisicoquímicos lo suficientemente diferentes como para permitir tratarlos como elementos diferentes. Este enfoque, aplicado a la osteoporosis, permitiría detectarla precozmente con un análisis de orina. Y la ciencia básica se conoce desde hace 70 años.

Los distintos isótopos de un elemento se diferencian por su masa. Paul Dirac, a comienzos de la Segunda Guerra Mundial, desarrolló un método centrífugo basado en este hecho para separar los isótopos del uranio. Sin embargo este método no fue el elegido finalmente para obtener el material de la primera bomba atómica, sino el de difusión: los distintos isótopos tienen distintas velocidades al atravesar membranas, los más ligeros van más rápido que los pesados. Algo similar pasa en los huesos.

Los huesos no son algo estático, algo que se forma y después se va desgastando. Al contrario, son algo vivo que está continuamente formándose y destruyéndose. En una persona sana y activa en condiciones gravitatorias normales estos procesos están en equilibrio. Pero si una enfermedad o la disminución de la actividad física o de la gravedad perturban este equilibrio se puede encontrar una variación en el equilibrio entre los isótopos de calcio. Y es que durante su formación los huesos favorecen la absorción del isótopo de calcio estable más ligero (calcio-42), frente al más pesado (calcio-44). Si se combinan todos los factores en un modelo matemático se puede relacionar la mineralización de los huesos con los ratios de isótopos en orina y sangre.

El primer paso para traducir esta idea en algo práctico se dio el año pasado. Un equipo encabezado por Jennifer Morgan, trabajando por aquel entonces en la Universidad del Estado de Arizona (hoy Morgan trabaja para en el Centro Espacial Johnson de la NASA) desarrolló la metodología analítica que permitía determinar el ratio de isótopos de calcio en la orina con una precisión muy alta. Emplearon para ello espectrometría de masas. El estudio [1] fue publicado en Analytical Chemistry

El siguiente paso era comprobar que, efectivamente, el método permite controlar la desmineralización de los huesos. Los resultados de un nuevo estudio, también liderado por Morgan, financiado por la NASA y que aparecerá publicado en los Proceedings of the National Academy of Sciences [2], indican que esto es así. Un avance de estos resultados se hicieron públicos en la última Conferencia Goldschmidt, celebrada en Praga en agosto de 2011.

En este estudio se analizaron los ratios de isótopos en la orina de 12 voluntarios sanos sujetos a un régimen de reposo absoluto en cama durante 30 días en las instalaciones del Centro de Investigación Clínica de la Universidad de Texas en Galveston. Cada vez que una persona se acuesta los huesos que soportan el peso del cuerpo (columna y piernas fundamentalmente) dejan de soportarlo. Cuando esto ocurre el equilibrio entre formación y destrucción del hueso se altera, desplazándose a la destrucción: deja de ser necesario consumir recursos valiosos en algo que no se usa. Los periodos prolongados en cama producen una pérdida de masa ósea similar a la de los pacientes con osteoporosis, o a la de los astronautas.

Los análisis de la orina de los voluntarios pusieron de manifiesto que la nueva técnica puede detectar la desmineralización ósea tan sólo una semana después de iniciar el reposo en cama, mucho antes de los cambios puedan ser detectados con rayos X.

Ni que decir tiene que este es un primer resultado y que está realizado con pacientes sanos. Habrá que repetirlo con personas que sufran distintas enfermedades, particularmente cáncer, para comprobar que el método sigue siendo lo suficientemente sensible. A partir de ahí surgirán las aplicaciones clínicas.

Pero démonos cuenta de que esto es sólo una posibilidad de las posibles a la hora de considerar los isótopos como elementos en las pruebas diagnósticas, algo que ya se emplea de forma rutinaria en geoquímica. Muchas enfermedades pueden causar cambios sutiles en las proporciones de distintos isótopos. Nada de equipos gigantescos e inmensamente caros, nada de radiación para el paciente. Imagina lo que podría representar un método tan simple en el diagnóstico temprano y seguimiento de los cánceres. O en la comprobación del estado de salud de los astronautas en viajes o estancias de larga duración. Este es todo un campo por explorar.


Esta entrada es una participación de Experientia docet en la XV Edición del Carnaval de Química que organiza El cuaderno de Calpurnia Tate.


Referencias:

[1] Morgan JL, Gordon GW, Arrua RC, Skulan JL, Anbar AD, & Bullen TD (2011). High-precision measurement of variations in calcium isotope ratios in urine by multiple collector inductively coupled plasma mass spectrometry. Analytical chemistry, 83 (18), 6956-62 PMID: 21740001

[2] J.L.L. MORGAN, G.W. GORDON, S.J. ROMANIELLO, J.L. SKULAN, S.M. SMITH, & A.D. ANBAR (2012). Rapidly assessing changes in bone mineral balance using natural stable calcium isotopes Proceedings of the National Academy of Sciences

viernes, 25 de mayo de 2012

La leyenda de Helgoland



Yo soy Forseti, el más sabio y elocuente de los Æsir.
Yo soy Forseti, el hijo de Baldr y Nanna.
Yo soy Forseti, la paz de Asgard, hogar de Odín y Frigg.
Yo soy Forseti, el que dirime disputas y es adorado en Forsetalundr.
Yo soy Forseti, el que reside en Glitnir, la del techo de plata y columnas de oro.

Glitnir heitir salr,
hann er gulli studdr
ok silfri þakðr it sama;
en þar Forseti
byggvir flestan dag
ok svæfir allar sakar.

Oye la voz de Forseti, porque él busca la justicia. Escucha, ¡oh mortal!, lo que ha de suceder. Esta es la voluntad del Señor de Hliðskjalf. Tras la Gran Guerra, un hombre del sur llegará al lugar que es verde, rojo y blanco buscando respirar. Pero son las disputas con el jefe vikingo y su lugarteniente las que asfixian su alma. Él es mi elegido. Deberá olvidar lo que ya sabe y aprender lo que ya sabe para darse cuenta de que es diferente. Y de esta forma los mortales verán, pero será borroso; entenderán, pero no comprenderán.



Deät lun, la tierra, así la llaman sus habitantes en halunder. No necesitan más. Pero los germanos del sur la conocen como Heyligeland, la tierra sagrada, porque es la tierra elegida por Forseti, el que preside, der Vorsitzender. Es la isla de Helgoland. Y esta es su leyenda.


El barco rodeó la pequeña isla buscando la ensenada. Por esa parte aparecía ante los escasos viajeros como una pared vertical rojiza. Sin embargo, al alcanzar la ensenada una playa blanquísima daba paso a la dársena. El pueblo empezaba en la misma playa y escalaba la pendiente suavizada del acantilado hasta llegar a la verde planicie superior.

En el pequeño puerto aún podían verse restos de la base que había sido destruida en la primera batalla naval de la Gran Guerra. Pero el viajero no estaba demasiado interesado en la historia. Desde que había zarpado del continente había comenzado a sentirse mejor y ya casi podía decirse que respiraba con normalidad. Mientras el barco iniciaba las maniobras de atraque, observaba con satisfacción que en la estrecha isla no había ni un sólo árbol, ni siquiera un arbusto que levantase más de una cuarta del suelo. Aquel era el lugar ideal para pasar una temporada dedicado a recuperarse de su alergia, leer a Goethe e intentar resolver algunos problemas que con Bohr y sus filosofías cerca eran difíciles de afrontar con tranquilidad. Era el 8 de junio de 1925.

Para el joven Heisenberg la naturaleza era su refugio. En el aislamiento de Helgoland podría dedicarse a pasear, a descansar, a pensar. Efectivamente, a los pocos días su salud estaba reestablecida, los vientos del mar del Norte estaban limpios y abrían sus pulmones. Sus paseos comenzaron a ser más enérgicos y, sin prácticamente nadie con quien hablar, la niebla que había en su mente también empezó a aclararse.

Tras terminar su estancia en Copenhague con Bohr, y el insufrible Kramers, ya de vuelta en su universidad, Heisenberg no había tenido ninguna dificultad en escribir, formalmente desde un punto de vista matemático, unas ecuaciones que expresaban la posición y la velocidad de un electrón como la combinación de las oscilaciones fundamentales de un átomo. Pero cuando insertaba estas expresiones compuestas en las ecuaciones estándar de la mecánica el resultado se parecía mucho al caos absoluto.

Donde debería haber un número aparecían listas de ellos, el álgebra no podía ser más elemental y, sin embargo, explotaba llenando páginas y páginas de fórmulas repetitivas. Durante semanas Heisenberg había intentado diferentes cálculos, jugando con el álgebra desde todos los ángulos que se le ocurrían. Recurrió a su salvavidas habitual, las series de Fourier, pero sin éxito.

Fue en ese punto cuando el aire de Gotinga pareció convertirse en una sopa irrespirable y Max Born le recomendó la isla como alivio para su ataque de asma alérgico.

Durante sus paseos por Helgoland llegó a un primer diagnóstico del problema que después se revelaría fundamental: la dificultad estaba en la multiplicación. Había convertido posición y velocidad de números sencillos a sumas de varios términos. Multiplicar dos números entre sí produce otro número. Multiplicar dos listas de números produce una página entera con todos los términos posibles resultantes de las distintas combinaciones: cada número de la primera multiplicado por todos los de la segunda. Pero ¿qué términos eran importantes? Y ¿cómo deberían sumarse para que el resultado tuviese algún sentido? Aquello era un rompecabezas sin sentido.

Ocurrió entonces, que una noche, cuando se disponía a cenar en el pequeño hostal en el que se alojaba, se encontró con otro huésped, algo extraño en aquel lugar. No fue difícil entablar conversación, no había nadie más en aquella habitación y, después de tanta soledad, resultaba un alivio poder charlar intrascendentemente con alguien. El viajero, que dijo llamarse Gangleri, de una edad indefinida y luciendo una larga barba, afirmaba dedicarse a vagar por el mundo descubriendo sus maravillas. Era magnético, con una curiosidad e inteligencia siempre alertas. Antes de que se diese cuenta, Heisenberg le estaba contando en términos sencillos a qué se dedicaba y cuál era su problema.

Gangleri escuchaba con atención con un brillo en los ojos. Cuando el joven físico terminó de hablar, sonrió y, bajando el tono de voz tanto que apenas susurraba, dijo: “Deja de pensar como un hombre. Piensa como lo harían los dioses, para los que el orden es de la máxima importancia”. Tras mirar fijamente a los ojos a Heisenberg y sonreír enigmáticamente, se levantó y dio las buenas noches. Nadie volvió a verlo.

Heisenberg se quedó un rato más fumando. No podía dejar de sonreír pensando en lo que Ganglieri había dicho y, no porque le diese la menor importancia, sino porque le recordaba a la mezcla de física y misticismo que en el Instituto de Copenhague le habían contado que era tan del gusto de Einstein.

Una cosa llevó a otra y en la mesa del comedor Heisenberg sacó sus papeles para dar un poco de forma a sus pensamientos del día. Había intentado olvidarse de las matemáticas y concentrarse en la física. Los elementos de su álgebra eran oscilaciones, cada una representando una transición de un estado a otro. El producto de dos de estos elementos debería representar una doble transición, de un estado a un segundo y de éste a un tercero. Entonces le pareció escuchar la voz de Gangleri: el orden. Reflexionó: la forma de ordenar esta tabla de multiplicaciones era poner juntos los elementos que correspondían al mismo estado inicial y final, sumando todos los intermedios posibles. De esta manera tenía una regla de multiplicación que era a la vez manejable y con sentido. Y, satisfecho, se fue a la cama.

Pero no pudo dormir. A las tres de la mañana ocurrió. Lo que había garabateado sin pensar demasiado en la mesa del comedor podía ser más importante de lo que había creído. ¿Y si los cálculos demostraban que había dado en el clavo? Incapaz de conciliar el sueño saltó de la cama y se puso a trabajar en un estado de gran excitación. Era tal su nerviosismo que cometió innumerables errores aritméticos elementales. Tras horas de trabajo y para su asombro y estupefacción obtuvo una respuesta: sus extrañas matemáticas daban como resultado una energía para el sistema que era consistente, pero siempre y cuando la energía tomase valores discretos, no continuos. ¡Su sistema daba una energía cuantizada sin que hubiese que introducir la cuantización entre las hipótesis de partida!

Nunca antes había ocurrido esto. La hipótesis de Planck había que introducirla “a mano” en algún momento. Pero no en su sistema. Él había escrito las ecuaciones estándar para un sistema mecánico sencillo, había insertado sus expresiones compuestas para la velocidad y la posición, aplicado su nueva regla de multiplicación y la cuantización surgía de las matemáticas. La energía de un sistema mecánico se autocuantizaba. Sin más.

Entusiasmado salió al exterior y corrió a una de las rocas de la orilla donde se tumbó a disfrutar del sol naciente, embelesado con su descubrimiento, en éxtasis.

En el camino de regreso a Gotinga sólo una cosa le preocupaba. Su método de multiplicación no era reversible. Los matemáticos dirían que no era conmutativo: a por b no daba el mismo resultado que b por a. Pero los dioses le favorecían. Gotinga era el Olimpo de las matemáticas y su jefe, Born, tenía una formación matemática de primer nivel. Cuando Heisenberg le presentó un borrador con su descubrimiento, tras la sorpresa inicial, a Born no le costó identificar que lo que estaba viendo no era más que una forma de una oscura, y casi olvidada, rama del álgebra llamada álgebra de Grassmann, en la que los elementos no eran números sino disposiciones de números llamadas matrices. Tras algunas pequeñas correcciones, Born mandó a publicar el escrito rápidamente en Zeitschrift für Physik, ya habría tiempo de refinarlo.

A los pocos días, Born informaba a Einstein del hallazgo. En la nota que le envió decía “parece muy místico, pero ciertamente es correcto y profundo”.

Había nacido la mecánica cuántica.




Notas:

  1. Esta entrada es una participación en la Edición 3.1415 del Carnaval de Matemáticas que acoge Gaussianos.
  2. Lo que antecede es creación mía. No existe una Leyenda de Helgoland fuera de esta entrada. Eso sí, está basada en hechos reales.
  3. Ningún nombre de esta entrada está inventado ni está elegido al azar. Todos remiten a a algo cuyo hallazgo dependerá de la curiosidad del lector.


martes, 22 de mayo de 2012

Mis misterios astroquímicos favoritos


Espacio profundo


El estudio de la composición y transformaciones de la materia que compone el universo está lleno de misterios por descubrir: desde cuál es el origen de las líneas espectroscópicas desconocidas a los distintos mecanismos de reacción que pueden dar lugar a especies muy complejas en el espacio interestelar. De todos ellos hay tres que a mi se me antojan fundamentales y que presento brevemente a continuación. Es una opinión personal, por lo que me encantará conocer la tuya.

#3 ¿Qué ocurre con la materia orgánica en los discos protoplanetarios?

Cotidianamente nos asaltan noticias de que se ha detectado tal o cual compuesto orgánico en una nube interestelar, desde fulerenos a aminoácidos. Estas noticias se suelen relacionar invariablemente con el origen de la vida soslayando una dificultad no menor. Si la vida surge en los planteas (en sentido amplio), ¿cómo llegan estas sustancias a ellos?

Nebulosa protoplanetraia

Los planetas, cometas y meteoritos se forman a partir de discos planetarios en los que las condiciones físicas y químicas en las que se formaron esos compuestos cambian radicalmente. En 2008 se observaron por primera vez agua y compuestos orgánicos sencillos (cianuro de hidrógeno, acetileno, dióxido de carbono) en un disco protoplanetario alrededor de AA Tauri y en 2011 grandes cantidades de agua alrededor de TW Hydrae. Entonces, ¿qué ocurre con las sustancias que se detectan en el medio interestelar cuando pasan a formar parte de un disco protoplanetario? ¿Desaparecen, se quedan igual, proliferan?

#2 ¿Dónde está el litio?

Los modelos existentes del Big Bang indican que poco tiempo después se crearon tres elementos, hidrógeno, helio y litio. Si esto es así, el litio debería ser más abundante en el universo de lo que es.

Nucleosíntesis primordial

Las observaciones de las estrellas más antiguas, formadas a partir de los materiales más parecidos a los del Big Bang, indican de 2 a 3 veces menos litio del que pronostican los modelos teóricos. Una posible explicación es que la falta de litio en estas estrellas podría deberse a que es destruido en el interior de ellas, ya que simplemente basta la colisión con un protón por encima de 2,4 millones de grados Celsius para que transmute en dos núcleos de helio (una estrella con la décima parte de la masa del Sol puede alcanzar los 4 millones en su núcleo). Pero ocurre que el litio es más abundante de lo que predice la teoría en las estrellas de última generación, o dicho de otra forma, estas estrellas parecen estar produciéndolo sin que sepamos realmente cómo.

Últimamente han aparecido indicios que apuntarían a que el litio podría estar “mezclado” en las estrellas antiguas y que no lo podemos observar bien, y teóricos que afirman que unas partículas subatómicas hipotéticas llamadas axiones habrían absorbido más protones de lo que se pensaba en el Big Bang. El hecho cierto es que no sabemos dónde está el litio que falta.

#1 ¿Qué es la materia oscura?

Este es el mayor misterio de todos para un astroquímico. Más del 80% de la materia del universo tiene una composición desconocida. Esta materia es invisible a los telescopios porque no interactúa con la radiación electromagnética (por eso se llama oscura) pero sus efectos gravitacionales son evidentes en la formación de estrellas y cúmulos galácticos, y pueden ser percibidos en la formación de lentes gravitacionales como las de la imagen.



Se especula con que en su composición entren partículas subatómicas que son diferentes de las que componen la materia que nos rodea, entre éstas estarían los axiones que mencionábamos más arriba, por lo que a la materia oscura a veces se la llama materia no bariónica.


Esta entrada es una participación de Experientia docet en la XV Edición del Carnaval de Química que organiza El cuaderno de Calpurnia Tate






viernes, 18 de mayo de 2012

Efecto del horario de comidas en la acumulación de grasa y patologías asociadas.



El mantra que se repite continuamente es que las dietas deben ser bajas en grasas y que se debe comer frecuentemente mientras se esté despierto. Hace algo más de dos años explicábamos que cuándo comes puede ser tan importante como qué comes. Hoy vamos a ver que puede ser incluso más importante. Comer en horarios regulares e incrementar la parte del día en la que se ayuna podría compensar los efectos perniciosos para la salud de una dieta rica en grasas y prevenir de esta manera la obesidad, la diabetes y las enfermedades hepáticas, al menos en ratones. Los resultados los publica el mismo equipo de investigación del Instituto Salk (EE.UU.), esta vez encabezado por Megumi Hatori, en Cell Metabolism.

El objetivo del estudio era determinar si la obesidad y las enfermedades metabólicas son una consecuencia efectivamente de una dieta rica en grasas o de la interrupción de los ciclos metabólicos. En esencia, las conclusiones de los autores son que los ratones que vieron limitado su horario de acceso a la comida a 8 horas son más sanos que los ratones que tenían acceso a ella, y comían, durante las 24 horas del día, independientemente de la calidad y del contenido de la dieta.

Los investigadores alimentaron dos grupos de ratones, con los mismos genes, sexo y edad, con una dieta en la que el 60% de las calorías provenía de grasas (como si te alimentaras sólo y exclusivamente de patatas fritas o helado). Un grupo de ratones podía comer siempre que quisiese, consumiendo la mitad de su comida de noche (los ratones son nocturnos) y picoteando durante el resto del día. El otro grupo tenía un acceso temporal restringido (ATR) a la comida a 8 horas por la noche o, visto desde otro punto de vista, ayunaba 16 horas al día. Otros dos grupos de control comieron una dieta estándar con un 13% calorías provenientes de grasas en condiciones correspondientes a cada uno de los grupos primeros.



Tras 100 días, los ratones que comían alimentos grasos a lo largo de todo el día ganaron peso y desarrollaron altos niveles de colesterol y de glucosa en sangre así como daños hepáticos y una disminución del control motor. Por su parte, los ratones ATR que habían ingerido el mismo tipo de comida grasa pesaban un 28% menos y no mostraban efectos adversos en su salud a pesar de ingerir la misma cantidad de calorías que los del otro grupo. No sólo eso, en las pruebas motoras los ratones ATR tenían mejores resultados que los ratones de acceso libre a la comida con dieta normal.

¡Ojo! No debemos caer en la tentación de saltar a la conclusión de que no pasa nada si comemos un montón de comida grasa siempre que después ayunemos. Estos resultados son indiciarios de que el ayuno diario es capaz de combatir los efectos perniciosos de una dieta no saludable hasta cierto punto más o menos significativo. Pero, primero, el estudio está hecho en ratones y, segundo, todo mecanismo de compensación tiene sus límites.

¿Qué ocurre entonces?¿Qué mecanismo es el que entra en acción para que el ATR tenga estos efectos? Durante mucho tiempo se ha asumido que la causa de la obesidad inducida por la dieta en ratones es nutricional (qué y cuánto se come); sin embargo estos resultados ponen de manifiesto que el reparto de la ingesta calórica a lo largo del día podría contribuir también a ella perturbando las rutas metabólicas gobernadas por los relojes circadianos y los sensores nutricionales.

Hígado de ratones con acceso a la comida grasa 24h (izq.) y en ATR (dcha.)
Los investigadores encontraron que el cuerpo almacena la grasa mientras comemos y que comienza a quemarla sólo después de unas pocas horas de ayuno. Cuando comemos frecuentemente el cuerpo está en modo almacenamiento, incrementando el número de células de grasa y células hepáticas, lo que a la larga puede dar lugar a daños en el hígado. En estas condiciones el hígado fabrica continuamente glucosa (el combustible celular), lo que aumenta los niveles de azúcar en sangre. La alimentación ATR, por otro lado, reduce la producción de grasa libre, glucosa y colesterol y hace mejor uso de ellos. Permite el paso al modo consumo, con lo que se disminuye drásticamente el almacenamiento de grasa y se activan los mecanismos de quema de ésta, lo que mantiene sanas a las células hepáticas y disminuye los niveles de grasa almacenada, con lo que se reduce la grasa corporal total.

Los autores también encuentran que el ciclo diario de alimentación-ayuno en ATR activa las enzimas del hígado que rompen el colesterol para formar los ácidos biliares, activando el metabolismo de la grasa parda, un tipo de “grasa buena” que convierte las calorías de más en calor. Por tanto, el cuerpo literalmente quema grasas durante el período de ayuno. El hígado también cesa la producción de glucosa durante varias horas, lo que ayuda a reducir la glucosa en sangre. Los materiales que hubieran ido a la glucosa de más en sangre se emplean en moléculas que reparan las células dañadas y en fabricar nuevo ADN. Esta reparación de células ayuda a prevenir la inflamación crónica que está asociada con el desarrollo de enfermedades cardíacas, algunos tipos de cáncer, los infartos cerebrales e, incluso, el Alzheimer. Hatori et al. han podido comprobar que, efectivamente, la inflamación crónica de grado bajo se ve reducida.

En conclusión, comer en horarios regulares durante el día y ayunar completamente durante la noche podría resultar ser muy beneficioso. Pero habrá que esperar a estudios con humanos para poder afirmarlo con rotundidad.

Esta entrada es una participación de Experientia docet en la XII Edición del Carnaval de Biología que organiza Caja de ciencia.


Referencia:

Hatori, M., Vollmers, C., Zarrinpar, A., DiTacchio, L., Bushong, E., Gill, S., Leblanc, M., Chaix, A., Joens, M., Fitzpatrick, J., Ellisman, M., & Panda, S. (2012). Time-Restricted Feeding without Reducing Caloric Intake Prevents Metabolic Diseases in Mice Fed a High-Fat Diet Cell Metabolism DOI: 10.1016/j.cmet.2012.04.019

martes, 15 de mayo de 2012

La estructura del azar y el i-Phone 5


Esta entrada tiene dos partes diferenciadas y autocontenidas; si te interesa el aspecto tecnológico exclusivamente puedes pasar a la segunda (Estructura a nanoescala de un vidrio metálico) sin necesidad de leer la primera, de contenido algo más matemático y especulativo.

Proyección ortográfica de un cubo de 5 dimensiones en 2 dimensiones sobrepuesto al patrón de difracción de un cuasicristal icosaédrico


Los servicios de inteligencia sabían muy bien en la época de la Segunda Guerra Mundial la importancia que la verdadera aleatoriedad tenía en los códigos que usaban sus espías para encriptar sus mensajes. Ya habían descubierto durante la Primera, de la forma más dolorosa, que una persona no puede escribir números realmente “al azar” y, por ello, en Bletchly Park, sede de los servicios de contraespionaje británicos, donde trabajó Alan Turing y se descifró el código de la máquina Enigma, había grupos de mujeres arrojando dados con los que construían cuadernos de un solo uso pseudoaleatorios para que los usasen los espías en el continente.

Construir secuencias aleatorias puede parecernos intuitivamente fácil, pero no lo es. No se trata de decir los números (letras o palabras son reducibles a números) que se nos ocurran y y ya está. Hemos de tener cuidado de que no dejemos, inconscientemente, una pauta: tendemos a usar determinadas palabras y estructuras gramaticales, por ejemplo. Pero, paradójicamente, intentar no dejar una pauta, ¡es una pauta! Estos es sólo la manifestación del hecho de que el azar, la pura aleatoriedad, contraintuitivamente, tiene estructura. Veamos un ejemplo.

Intenta escribir una secuencia de números naturales que tú creas que es aleatoria. Una vez que lo hayas hecho estudiala como si la hubiese escrito otra persona y busca pautas; las encontrarás rápidamente. Así, si nos limitamos a los números naturales entre 1 y 15 podríamos haber escrito:

1, 4, 6, 7, 10, 14

que parecen números al azar. Pero a estos números se le puede encontrar una pauta:

a, a+n13, b, a+n23, a+n33, 2(b+1) donde n = 1, 2, 3, ...

Dicho de otra manera, 1,4,7 y 10 forman una progresión aritmética en el que la diferencia entre un término y el siguiente es la misma (3). Sabiendo esto intentemos elegir los números de forma que no haya ningún tipo de pauta apreciable entre ellos:

1, 2, 4,

Con estos números ya no podemos elegir el 6 por que tendríamos 2, 4, 6, así que

1, 2, 4, 5,

y ahora no podemos elegir ni el 7 ni el 8...

Y esto es limitándonos a las progresiones aritméticas. Hemos podido ver que escribir una lista de números al azar no es trivial. De hecho el teorema de Szemerédi prueba que es imposible. Y rizando el rizo, ni siquiera usando números primos te libras del problema, como demuestra el teorema de Green-Tao.

Cuando consideramos los sólidos el concepto de aleatoriedad se asocia a los sólidos amorfos, a los llamados vidrios. En estos se dice que el empaquetamiento de los átomos, la secuencia en la que se colocan es aleatoria. Esto podríamos llegar a la conclusión de que no es cierto gracias a Szemerédi, aunque hay cuestiones puramente químicas que nos hacen intuir que esto no puede ser estrictamente así.

Por su estructura interna los sólidos podemos clasificarlos en cristalinos, cuasicristalinos y amorfos. Como las definiciones estándar de estas estructuras se pueden encontrar fácilmente en la red, nosotros vamos a ir un pasito más allá y hablaremos de hiperdimensiones y de los planteamientos sobre aperiodicidad de Harald Bohr para unificar matemáticamente la visión de las tres. Así, una estructura cristalina sería el corte de una función multidimensional periódica por un hiperplano racional, es decir, la estructura cristalina tridimensional es realmente el corte por un hiperplano según un plano de la celda hexadimensional. Análogamente, en un cuasicristal el corte de la función periódica es irracional (típicamente el número áureo), esto es, el hiperplano que corta no coincide ni puede hacerse coincidir con un plano de la celda hexadimensional.

Vemos que, desde este punto de vista, hemos agotado todas las posibilidades de corte de una celda hexadimensional con los cristales (números racionales) y los cuasicristales (irracionales). Por tanto, podemos conjeturar [lo que no he leído en ningun parte y es original de un servidor] que en un sólido amorfo, de existir hiperestructura, ésta tendrá una dimensionalidad superior a 6 pero finita. Y es finita por el teorema de Szemerédi y porque a corto rango existe orden en todos los sólidos.

Efectivamente, desde el punto de vista del orden tanto cristales como cuasicristales lo tienen a corto a medio y a largo. Es característico de los cuasicristales que existan simetrías icosaédricas, cosa que para los cristales no está permitida, y el orden a largo no es tan evidente. En los vidrios no existe orden a largo (en el sentido habitual del término, hay aleatoriedad), pero sí existe orden a corto porque químicamente los átomos sólo son estables o metaestables en determinados entornos. Se alcanzará un estado estable si la mezcla tiene tiempo y energía como para ordenarse suficientemente, si no, el estado será metaestable. La cuestión es ¿cómo es la transición del orden a corto al desorden a largo? ¿habrá fases cristalinas, cuasicristalinas? ¿Qué ocurre a medio rango?

Un indicio del aspecto que pueden tener las respuestas a estas cuestiones lo proporciona un grupo de investigadores encabezados por Jinwoo Hwang, de la Universidad de Wisconsin en Madison (EE.UU.), con los resultados que han publicado en Physical Review Letters sobre un vidrio metálico.

Estructura a nanoescala de un vidrio metálico.


Zonas de estructura cúbica (centro) e icosaédrica (bordes) en un vidrio metálico



Los vidrios metálicos (VM) tienen características técnicas muy interesantes: son metales, son fuertes, y resisten muy bien la corrosión y el desgaste. Pero pueden romperse de pronto. El conocimiento que se tiene de su estructura es muy limitado como para poder explicar estas características. El trabajo de Hwang et al., del que damos la referencia más abajo, sugiere que estos materiales contienen más orden de lo que sugiere su nombre.

Los especialistas en materiales sospechan que los VM tienen algún tipo de estructura semiordenada, aún cuando no sea un cristal perfecto. La teoría predominante, apoyada por modelos por ordenador, es que hay “agrupaciones” de átomos, entendiendo por agrupación un átomo central y sus vecinos inmediatos, que forman pentágonos distorsionados o, más bien, icosaedros, sus equivalentes tridimensionales. Estas geometrías tienen simetría traslacional quíntuple, por lo que estaríamos frente a estructuras tipo cuasicristal. Los materiales con esta estructura tienden a quebrarse bajo tensión, en vez de estirarse o doblarse, lo que coincide con los VM. Hay otra teoría que dice que hay varias agrupaciones que se organizan en disposiciones cristalinas de tamaños del orden de un nanometro, pero esto suscita más polémica.

Hwang et al. han añadido datos experimentales a un modelo por ordenador y el resultado es que la realidad sería más compleja que ninguna de estas hipótesis por separado.

El equipo de investigadores usó una técnica llamada microscopía electrónica de fluctuación (FEM, por sus siglas en inglés) para estudiar muestras de un VM de composición Zr50Cu45Al5. La FEM mide las variaciones en la difracción de los electrones conforme un flujo de éstos se mueve por la superficie de una muestra delgada. Una muestra perfectamente homogénea, ya sea cristalina o amorfa, no tendría variaciones significativas en su modelo de difracción. Pero si la muestra tiene algún tipo de variación en la escala de uno a unos pocos nanometros la difracción cambiará de forma significativa. La técnica, por tanto, es sensible a lo que se denomina rango medio, el rango donde la microscopía electrónica convencional o la difracción rayos X tiene dificultades.

Los datos de la FEM se introdujeron en una simulación por ordenador (Montecarlo híbrida inversa) con el resultado de que diferentes zonas de la muestra tenían diferentes simetrías. Unas eran icosaédricas y otras eran cúbicas. Las zonas cúbicas podían llegar a ser el 15% de la muestra. Como ésta se había enfriado muy rápidamente desde su estado fundido, la estructura alcanzada es muy probable que sea metaestable.

Efectivamente, cuando la muestra se calentaba durante una hora a la temperatura de la habitación, el porcentaje de zona cristalina caía drásticamente pasando a una estructura icosaédrica. Esta estructura sería más estable, por tanto.

Decimos más estable y no la más estable porque puede que el estado alcanzado sea el de energía más baja. Esto, unido a que el estudio se refiere a un VM muy concreto, implica que no se puede generalizar el resultado a otros tipos de VM con facilidad. Pero, como todos los VM se fabrican por enfriamiento muy rápido, sí nos da indicios de lo que puede llegar a ocurrir con su uso industrial.

El iPhone 5 y los vidrios metálicos

Una de las características de los vidrios es que no tienen una temperatura de fusión, es decir, una temperatura a la que pasan del estado sólido al líquido. Por el contrario la transición de sólido a líquido es continua: los vidrios pueden visualizarse como líquidos de viscosidad muy próxima a infinita que, conforme se calientan, van disminuyendo progresivamente, empezando a fluir cada vez más. Esto los asemeja a los plásticos, que se van “derritiendo” cuando los calentamos haciéndose cada vez más maleables.

A diferencia, por tanto, de las aleaciones metálicas habituales, los vidrios metálicos pueden moldearse como el plástico: los puedes aspirar, empujar, soplar o lo que se te ocurra para que adopten formas muy complicadas sin pérdida de material y sin mecanización.

Si esto sigue siendo cierto incluso a micro o nanoescala podrías fabricar haces de nanocables o microengranajes para micromotores. El problema surge con el comportamiento a medio rango, que viene condicionado por la más que posible existencia de estructuras cristalinas metaestables, en principio, no deseadas.

Si el rumor de que el próximo iPhone 5 usará intensivamente VM es cierto, Apple estaría poniendo un montón de fe en un material cuyas características los científicos sólo están empezando a comprender.

Esta entrada es una participación de Experientia docet en la XV Edición del Carnaval de Química que organiza El cuaderno de Calpurnia Tate.

Referencia:

Hwang, J., Melgarejo, Z., Kalay, Y., Kalay, I., Kramer, M., Stone, D., & Voyles, P. (2012). Nanoscale Structure and Structural Relaxation in Zr_{50}Cu_{45}Al_{5} Bulk Metallic Glass Physical Review Letters, 108 (19) DOI: 10.1103/PhysRevLett.108.195505

viernes, 11 de mayo de 2012

La síntesis de proteínas también se produce en las sinapsis

Hipocampo de rata. Foto: Tom Deerinck, NCMIR   


Cuando aprendes a manejar la última aplicación que te has descargado en el móvil se producen modificaciones en tu cerebro. Para empezar se crean nuevas conexiones entre neuronas que, con la práctica, se verán reforzadas. Esas conexiones se establecen entre los axones de una neurona y las dendritas de otras formando lo que se llama sinapsis. El establecimiento y el reforzamiento de las sinapsis nuevas (plasticidad sináptica) los realizan físicamente proteínas. Durante mucho tiempo se creía que estas proteínas se producían en el cuerpo de la neurona. Ahora, un grupo de investigadores encabezado por Iván Cajigas, del Instituto Max Planck (Alemania), ha identificado más de 2500 proteínas que se sintetizan localmente en dendritas y axones de neuronas del hipocampo. Publican sus resultados en Neuron.

De toda la carga genética que tiene un individuo, lo que se denomina genoma, sólo una parte se convierte en proteínas en una célula dada. Es lógico: ¿qué hacen proteínas que sólo son necesarias en el hígado en una célula de la piel? Además, en un mismo tipo de tejido, en distintas circunstancias, se pueden transcribir unas proteínas diferentes o en distintas cantidades: pensemos en un hígado sano, por ejemplo, frente al hígado de un alcohólico. De aquí surge el concepto de transcriptoma: es el conjunto de ARN mensajero (ARNm) que existe en un tejido dado en unas condiciones dadas. Por así decirlo, es el conjunto de recetas que se han usado en una cocina dada un día determinado: no es lo mismo un McDonald's un lunes que Etxanobe un jueves.

Estudios anteriores habían mostrado en las dendritas conjuntos de ARNm escasos y, lo más llamativo, diferentes. Tan diferentes que no coincidía ni una sola de las recetas. Cajigas et al. se plantearon si no sería el caso de que la carta de este restaurante en concreto fuese extremadamente amplia y que los estudios previos sólo estuviesen viendo partes de ella. ¿Habría muchas más moléculas de ARNm pendientes de descubrir? ¿Era simplemente un problema de sensibilidad? Una cosa parecía clara, para descubrirlo la metodología debía ser distinta a los chips de ADN y la hibridación in situ que se había empleado hasta ahora.

Los investigadores diseccionaron la capa de neuropilo del hipocampo de la rata. Esta capa alberga una alta concentración de axones y dendritas, pero carece de cuerpos celulares de neuronas piramidales (el principal tipo de célula en el hipocampo). Emplearon a continuación técnicas de secuenciación de alta resolución para detectar el ARNm que se suponía que por estar presente en bajas concentraciones no se había detectado antes. Encontraron 8379 ARNm en el neuropilo, de los cuales 2550 eran exclusivos de las dendritas y/o los axones.

Los investigadores fueron un paso más allá, empleando una técnica de código de barras fluorescente (Nanostring nCounter) para la visualización en alta resolución y la cuantificación de las moléculas de moléculas individuales de ARNm. Encontraron que la concentración de ARNm en las neuronas puede llegar a variar en tres órdenes de magnitud.

Adicionalmente los investigadores fueron capaces de clasificar muchos de los ARNm identificados y determinar su función en la plasticidad sináptica. Había recetas para moléculas señalizadoras, de soporte estructural y de receptores de neurotransmisores. Entre los ARNm de dendritas y axones clasificados estaban algunos relacionados con el autismo.

Este es un resultado que revela una capacidad insospechada de la maquinaria de síntesis de proteínas de suministrar, mantener y modificar la población de proteínas a nivel de dendritas y sináptico. En un símil político, pone de relieve que el estado neuronal tiene transferidas muchas competencias a los entes locales.

Este trabajo es de investigación básica, es decir, contribuye a nuestro conocimiento de las sinapsis, por lo que hablar de aplicaciones es prematuro. Que las tendrá en el futuro es indudable.

Referencia:

Cajigas, I., Tushev, G., Will, T., tom Dieck, S., Fuerst, N., & Schuman, E. (2012). The Local Transcriptome in the Synaptic Neuropil Revealed by Deep Sequencing and High-Resolution Imaging Neuron, 74 (3), 453-466 DOI: 10.1016/j.neuron.2012.02.036

jueves, 10 de mayo de 2012

#Sinciencia no hay principios


Dice el refrán español que el gato escaldado del agua fría huye. Cuando se han gastado barbaridades de dinero en instalaciones e infrestructuras de investigación, en parques tecnológicos de diseño para los que no hay empresas tecnológicas que los ocupen y se convierten en polígonos industriales pijos, ahora se recorta en lo verdaderamente necesario: los fondos que permitirán la existencia, no de una, sino de las dos próximas generaciones de investigadores en España.

No es un hecho psicológico nuevo que las personas leamos los datos no como objetivamente son, sino con las gafas de nuestra ideología. El hecho cierto, que yo entiendo objetivo, es que recortar en la inversión en ciencia hipoteca el futuro de España más allá de lo imaginable.

Conseguir que esta idea cale, que estamos hipotecando el futuro del país de mala manera, se enfrenta a otro sesgo cognitivo: la mayoría de las personas no ven más allá del corto plazo. Además, la opinión liberal es que ahí está la iniciativa privada y eso, en este país, sede de la cultura dicotómica del pelotazo/funcionario, es una utopía, salvo honrosas excepciones.

No voy a entrar en explicar por qué son tan importantes los investigadores; a quien tenga verdadero interés le invito a que lea cualquier texto de historia económica. Solo quiero dejar constancia que, siendo los recortes y las subidas de impuestos comprensibles en general, en ciencia son un error mayúsculo. Y, para que conste, yo no vivo de los presupuestos del estado (siempre he trabajado en la empresa privada).

Finalmente, no me resisto a dejaros con una pequeña historia, convenientemente alejada en el espaciotiempo, que yo, en mi ingenuidad, considero tan relevante como ilustrativa.

Peces por Principios


De Historia Piscium (DHP) fue un trabajo que comenzó Francis Willughby (1635-1672) y que terminó John Ray (1627-1705) y que se imprimió con el apoyo financiero de la Royal Society en 1686. El texto y las ilustraciones de DHP reflejan el espíritu del siglo XVII: el estudio de la naturaleza por parte de Ray era un elemento más de la obra de su dios, como lo era su búsqueda del conocimiento y el lenguaje perdidos a consecuencia del pecado original (Adán, Eva, la serpiente y la manzana, para los despistados). El apoyo de la Royal Society venía por el interés de ésta en reformar la historia natural de los peces.

La academia científica más antigua del mundo, fundada en 1660, casi quiebra a consecuencia de la publicación de DHP. Su presidente, Samuel Pepys, marino, apoyó el proyecto de Ray completamente y no escatimó en gastos, principalmente en las ilustraciones, de altisima calidad y correspondiente precio. DHP no se vendió como estaba previsto y aquello fue la ruina: no quedó dinero para ningún otro proyecto.

El primer proyecto en sufrir los recortes fue la publicación de un libro titulado Philosphiae Naturalis Principia Mathematica, más conocido como los Principia de Isaac Newton. Probablemente el libro más importante en la historia de la física y quizás de toda la ciencia: en él se describían las leyes del movimiento y la gravedad.

Un empleado de la Royal Society, consciente de la importancia del texto, decidió financiarlo él mismo. Los Principia se publicaban en 1687 con el aporte económico de Edmund Halley, famoso por el cometa que lleva su nombre. Ello fue posible por la fortuna personal de Halley, adquirida por su padre con una fábrica de jabón.

Pero la Royal Society seguía con la política de recortes de Sam Pepys y, tras la publicación de los Principia, el señor Halley fue informado de que la sociedad no se podía permitir seguir pagándole su sueldo anual de 50 libras. Como compensación recibiría su contravalor en ejemplares de DHP.

El nombre de Sam Pepys, como cargo político, lo podéis encontrar tanto en la ilustración de DHP que abre este texto como en la portada de los Principia. A buen entendedor...


miércoles, 9 de mayo de 2012

Amazings.es: pH para adultos


El pH es un índice omnipresente: desde la publicidad cosmética hasta el estado de la piscina. Es una escala sencilla, y cualquiera puede determinar el valor de una muestra fácilmente en caso de necesidad. Incluso el concepto no es demasiado complicado, bastan las matemáticas y la química de secundaria para tener una idea bastante precisa.

Pero lo que está bien para un ciudadano medio puede no estarlo para un científico. Recientemente en los comentarios a una, por otra parte estupenda, entrada de Ed Yong en Not Exactly Rocket Science, sobre organismos extremófilos en entornos de acidez extrema, Rosie Redfield, la microbióloga que desmontó, en su blog primero y con una exhaustiva investigación experimental después, lo de la bacteria que incorporaba arsénico a su ADN, muestra lo limitado de su conocimiento de algo tan crítico para su trabajo como el concepto de pH. Redfield pone en duda la existencia de pH negativos.

Increíble, pero cierto.

Hechos como este hacen que uno se cuestione sobre el nivel de formación química elemental de algunos graduados universitarios. Como, a fin de cuentas, es algo que no podemos remediar en su conjunto, vamos a intentar explicar el concepto de pH que debería conocer, no ya un científico, sino un ciudadano informado. Para ello haremos un repaso más o menos formal sobre el concepto habitualmente admitido, luego nos iremos al fútbol y finalmente veremos como nos queda la definición de pH.

Sigue leyendo en Amazings.es

lunes, 7 de mayo de 2012

La convicción filosófica del investigador: el caso de Mijail Lomonósov


Catalina II de Rusia visita el estudio de Lomonósov



En las últimas semanas ha venido desarrollándose un (acalorado) debate sobre el papel que pueda tener la filosofía en la comprensión real del universo o, visto desde el otro lado, sobre cuáles son los límites de la comprensión física del universo. Uno de los puntos álgidos fue la publicación de una entrevista a Lawrence Krauss en The Atlantic en la que éste venía a afirmar, en la línea de Richard Feynman o Steven Weinberg, que filosofía y teología son unas pérdidas de tiempo completamente inútiles.

Nosotros no vamos a entrar (hoy) en el fondo de la cuestión. Pero sí creemos que es conveniente que recalquemos la necesidad de ser conscientes de cómo nuestras creencias más íntimas, que surgen de convicciones filosóficas y/o religiosas muchas veces no expresadas de forma explícita, conforman nuestra visión del mundo y que, por eso mismo, influyen en como abordamos su estudio y qué resultados tendemos a aceptar y cuáles no. Esas convicciones son las gafas con las que vemos el universo, nuestro objetivo hoy no es dilucidar qué gafas son las mejores sino llegar a ser conscientes que esas gafas existen estudiando un caso concreto.

Para que nuestra aproximación sea útil es conveniente tener en mente que nuestra época, nuestro tiempo, no es mejor ni peor que cualquier otro histórico: los humanos no hemos cambiado tanto. Es por esto por lo que los ejemplos que nos ofrece la historia son útiles.

Sin duda un caso paradigmático de la influencia de las convicciones filosóficas en el desarrollo de una carrera científica es el de Einstein. Lo hemos tratado extensamente en este blog, por lo que invitamos al lector interesado que visite la serie Einstein y..., especialmente Einstein y ...Ernst Mach  , Einstein y...Niels Henrik David Bohr  y Einstein y... Paul Ehrenfst

Lomonósov

Hoy vamos a tratar de otro caso si cabe más espectacular. Se trata de uno de los mayores genios científicos de la historia moderna y, sin embargo, un desconocido fuera de su Rusia natal, Mijaíl Vasílievich Lomonósov (1711-1765). El enlace anterior dirigido a la Wikipedia en español nos dará idea de la imagen que se proyecta de Lomonósov fuera de Rusia: escritor, gramático, poeta, ferviente cristiano que hizo algo de ciencia.

Lomonósov fue escritor, geógrafo, gramático y poeta, efectivamente. Pero él decía de sí mismo que su profesión era la física y que su entretenimiento era la poesía. Simplemente la sociedad podía valorar la segunda pero no estaba preparada para la primera.

A efectos de lo que nos ocupa la afirmación más importante de las que vierte la Wikipedia es la de ferviente cristiano. Lomonósov no lo era. No vamos a entrar en una argumentación prolija, bastarán un par de ejemplos, para ilustrar que era un cristiano de conveniencias; en ningún caso “ferviente”. En 1761, previamente a la observación del tránsito de Venus, Lomonósov predijo la aparición de un halo en el contorno del planeta al comienzo y al final del tránsito en caso de que el planeta tuviese una atmósfera densa. Este halo fue observado y en la memoria que Lomonósov escribió al respecto especulaba con la posibilidad de que existiese vida y que, en el caso de existir los venusianos no tendrían necesariamente que ser cristianos. Una afirmación mayor en un país en el que el sínodo de obispos había condenado como herético el modelo heliocéntrico copernicano tan sólo 20 años antes.

En otra ocasión, Lomonósov tuvo un roce con el conde Iván Shuvalov, que lo apoyaba financieramente. El conde quería que Lomonósov apareciese por la corte imperial más a menudo, ante lo que Lomonósov respondió: “No sólo no deseo ser el bufón de la corte delante de la mesa de los señores y gobernantes de la tierra, ni siquiera del señor Dios mismo, que me dio las entendederas hasta que vea oportuno quitármelas”. Lomonósov sabía a quien le decía eso, Shuvalov era un aristócrata ilustrado, y no tuvo consecuencias para él, pero no suena muy fervorosamente cristiano.

Lomonósov era un deísta, no un cristiano en el sentido habitual del término. Creía en un dios que era fundamentalmente un relojero sabio más que ninguna otra cosa. Sus posiciones eran muy similares a las de su contemporáneo Benjamin Franklin.

Lo anterior casa estupendamente con la posición filosófica más definitoria de la física de Lomonósov basada en explicaciones cartesianas de modelos mecánicos. Una posición en contraposición a la preponderante en Europa en esa época basada en razonamientos newtonianos que se fundamentaban en fluidos imponderables: éter, electricidad o calórico. Esto conllevó , junto con otros factores de tipo personal y geopolítico, a que grandes descubrimientos no fuesen reconocidos en el resto de Europa. A su muerte el mundo olvidó por completo a Lomonósov, sólo la mentalidad de la segunda mitad del siglo XIX estuvo ya preparada para reconocer sus aportaciones.

Efectivamente, los razonamientos de Lomonósov se basaban siempre en la convicción de que los fenómenos físicos y químicos se podían explicar exclusivamente en términos mecánicos, por la interacción de “partículas diminutas e insensibles”. Él llamó a esta filosofía “química física” en 1752 (no se confunda con el campo actual). Pero veamos esta filosofía en acción.

Principio de conservación de la materia/energía.

Aunque en los libros de texto habituales no aparezca, Lomonósov fue la primera persona en confirmar experimentalmente la ley de conservación de la materia.

Es de todos sabido que los metales ganan peso cuando se calientan (hoy día sabemos que ello se debe a la oxidación). La mentalidad que comenzaba a imperar a finales del XVII, llevó a Robert Boyle, contemporáneo y amigo de Newton, a concluir erróneamente en 1673 que el “calor” era algún tipo de materia.

En 1756 Lomonósov demostró que la idea de calórico era falsa calentando placas de plomo en un recipiente hermético y comprobando que el peso del conjunto era el mismo antes y después de calentar. En una carta a Leonhard Euler en la que explicaba el experimento enmarcó las conclusiones en un principio general de conservación:

“Todos los cambios que encontramos en la naturaleza proceden de tal manera que […] no importa cuanta materia se añada a cualquier cuerpo que una cantidad igual ha sido tomada de otro[...] y ya que esta es la ley general de la naturaleza también se encuentra en las leyes del movimiento: un cuerpo pierde tanto movimiento como da a otro”.

Cero absoluto.

Experimentos análogos llevados a cabo por Antoine Lavoisier diecisiete años más tarde fue un paso más allá, demostrando que el incremento de peso del metal se correspondía exactamente con la reducción del peso de oxígeno en el aire. Pero a diferencia de Lavoisier, que seguía considerando el calor como un “sutil líquido calórico”, Lomonósov lo interpretaba como una medida del movimiento lineal y rotacional de corpúsculos.

Tan convencido estaba que el calor se correspondía con la energía mecánica de los corpúsculos que veintiocho años antes del resultado de Lavoisier, en 1745, y casi un siglo antes de que Lord Kelvin introdujese la escala absoluta de temperaturas, Lomonósov propuso la idea de frío absoluto, la temperatura a la que los corpúsculos ni se desplazan ni rotan, lo que hoy llamaríamos el cero absoluto.

Teoría cinética de los gases.

El convencimiento de Lomonósov de que la realidad eran corpúsculos también le llevó a predecir correctamente una desviación en la ley de Boyle de los gases. Dado que las partículas no son puntos matemáticos, sino que ocupan un volumen, la presión del aire no podría mantenerse inversamente proporcional al volumen de gas a grandes presiones. Las deducciones de Lomonósov sentaban las bases de lo que después sería la teoría cinético molecular, que no se desarrollaría (independientemente) hasta bien entrado el siglo XIX.

Mercurio sólido.

El siglo XVII fue el siglo de los salones cultos e ilustrados en los que se podía encontrar a un famoso poeta recitando sus últimos versos o a un científico haciendo experimentos. En estos salones las propiedades del mercurio, el hecho de que fuese un metal líquido, lo rodeaban de cierto misticismo. Pero no para Lomonósov.

Estaba convencido de que su comportamiento era igual al de cualquier otro metal solo que con rangos de temperaturas diferentes. Durante el invierno particularmente severo de 1759, Lomonósov con la ayuda de Joseph Adam Braun, consiguió con una mezcla de nieve y ácido nítrico llevar un termómetro por debajo de los -38ºC obteniendo por primera vez mercurio sólido. Golpeando la masa obtenida con un martillo encontraron que era a la vez elástica y dura, “como el plomo”. Fue el hallazgo más famoso de Lomonósov durante su vida.

Vemos en estos ejemplos como unos principios rectores de tipo filosófico son capaces de guiar a un científico a descubrimientos sobresalientes que le adelantan a su tiempo. Sin embargo su falta de sintonía, digamos filosófica, con el resto de colegas (salvo Euler) hacía difícil que sus progresos fuesen apreciados.

Pero también estos principios filosóficos, como casi dos siglos después también le ocurriría a Einstein, hicieron que Lomonósov se metiese en callejones sin salida.

Gravedad.

Convencido en su cartesianismo de la mecánica corpuscular Lomonósov no terminaba de aceptar la gravedad Newtoniana y su acción a distancia porque sí. Empleó los últimos años de su vida en llevar a cabo sistemáticos experimentos con péndulos, rellenando cientos de páginas de libros de notas, en un intento inútil de encontrar un error en las ideas de Newton.

En su desconfianza de Newton, Lomonósov nunca usó el cálculo diferencial en sus textos, a pesar de tener una excelente formación matemática.  

viernes, 4 de mayo de 2012

El origen matemático de los números cuánticos y de los orbitales atómicos.



En muchas ocasiones, cuando nos enfrentamos a la derivación de las expresiones matemáticas que representan sistemas físicos la mezcla precisamente de conceptos matemáticos y físicos hace que ni sigamos unos ni entendamos los otros. Nosotros pensamos que explicar ambas por separado ayuda en gran medida a la comprensión general.

Ayer, el hijo de un amigo nos planteaba que aceptaba la forma de los orbitales del átomo de hidrógeno y la aparición de los números cuánticos (salvo el de espín) como si fuesen un dogma, declarándose incapaz de seguir ni a su profesor ni a su libro de texto (el chaval estudia segundo de químicas en una prestigiosa universidad española). Es mi opinión que ello se debe a que las matemáticas y la física ya son lo suficientemente sutiles (me niego a aceptar que sean complicadas) por separado como, para encima, mezclarlas.

Lo que sigue es una explicación, un esquema conceptual si se quiere, de cómo se llega a los orbitales del átomo hidrogenoide (un átomo que tenga sólo un electrón) y a los 3 números cuánticos asociados (el de espín va aparte) desde un punto de vista matemático. Una vez que se tiene claro “cómo” lo haces ya te puedes concentrar en “qué” haces. Como conocimientos previos está saber lo que es una ecuación diferencial y cómo se resuelve en términos generales.

La llamada función de onda, que es la que describe la posición del electrón (por simplicidad excluimos la dependencia del tiempo), no es más que una función de tres variables que viene descrita por una ecuación diferencial llamada ecuación de Schrödinger (EdS) que adopta la forma

HΨ = EΨ                                [EdS]

donde H es un operador llamado hamiltoniano. Este operador a su vez lo podemos expresar de tal manera que la EdS la podemos escribir como

HΨ= aΔΨ + /r = EΨ           [EdS]

en la que a y b son constantes, Δ es el operador laplaciano y r es una distancia (la del electrón al núcleo). El operador laplaciano no es más que la suma de las derivadas parciales segundas con respecto a cada una de las tres variables, es decir:


a(2Ψ /x2 + 2Ψ /y2 + 2Ψ /z2) + bΨ/r = EΨ [EdS]

r = (x2+y2+z2)1/2

Coordenadas esféricas físicas.

La resolución de esta ecuación diferencial nos proporcionará Ψ, que es lo que queremos. Sin embargo esta resolución en coordenadas cartesianas se hace muy complicada y es preferible usar coordenadas esféricas. En estas coordenadas Ψ pasa de ser una función de x, y, z a ser una función de r, θ y φ donde

x = r sen θ cos φ
y = r sen θ sen φ
z = r cos θ

Haciendo la sustitución resulta que la función Ψ puede expresarse como el producto de tres funciones cada una de una sola variable, Ψ= R(r)Θ(θ)Φ(φ), con lo cual obtenemos tres ecuaciones diferenciales independientes, cada una en una sola variable. Ya sólo nos queda resolver estas ecuaciones. No vamos a entrar aquí en cómo se hace, nos limitaremos a señalar unos detalles matemáticos que después se revelarán como muy importantes.

En la resolución de Φ(φ) nos va a aparecer una constante de separación que, convencionalmente (tiene un sentido físico), llamaremos m. Para que se cumpla que Φ(φ) = Φ(φ +2π), m sólo puede ser un número entero (positivo, negativo o cero).

La resolución de Θ(θ) es más complicada. En ella aparece de nuevo m y una nueva constante de separación l. Las condiciones que deben cumplir las soluciones (que sean cuadráticamente integrables) obligan a que l = |m|, |m|+1, |m|+2,.... Esto quiere decir que el valor más pequeño de l es cero y que m va de -l a +l de 1 en 1.

Finalmente, en la resolución de R(r) aparece de nuevo l y otra constante de separación n que, por un razonamiento análogo al anterior resulta que debe ser mayor o igual a l+1. Deducimos de aquí que el valor más pequeño de n es 1.

Es necesario recordar que estas soluciones no son funciones únicas sino familias de funciones que cumplen los condicionantes de la EdS y que los distintos miembros de las familias vienen dados por los distintos valores permitidos de n, l y m. Y esto es matemáticas, no física.

Bien, pues ya tenemos encontradas las soluciones a la EdS, que tienen la forma general

Ψ = Rnl(r)Θlm(θ)Φm(φ)

donde, como hemos visto,

n = 1,2,3,...
l = 0,1,2,...,n-1
m = -l, -l+1,...,0,...,l-1,l

Veamos el aspecto de algunas de estas soluciones. Si hacemos n =1, ello implica que l = 0 y m = 0. En este caso Θ(θ) y Φ(φ) se hacen constantes y

Ψ =Ψ(r) = AeBr (A,B son constantes de integración)

Para n = 2 tenemos esta misma posibilidad ( l = 0 y m = 0) y tres más a partir de l=1 con m = +1,0,-1, a saber,

Ψ = CeBr
Ψ = D r sen θ cos φ eBr
Ψ = D r sen θ sen φ eBr
Ψ = D r cos θ eB(C, D son constantes de integración)

Y así podríamos seguir para los distintos valores de n, l y m encontrando todos los miembros de la familia de funciones que son solución de la EdS.

Aproximémonos ahora un poco a la terminología física. La representación de las funciones que sólo dependen de r será una esfera, llamemoslas s y distingámolas por el valor de n:

1s = AeBr
2s = CeBr

Las funciones que tengan l =1, llamémoslas p, distingámolas por su valor de n y marquemos con un subíndice su orientación en ejes cartesianos (transformamos ahora de esféricas a cartesianas):

2px = D r sen θ cos φ eBr = D x eBr
2py = D r sen θ sen φ eBr = D y eBr
2pz = D r cos θ eBr = D z eBr

Tenemos de esta forma las funciones de onda reales hidrogenoides para n =1 y n = 2. Un orbital es una función de onda espacial de un electrón. Puesto que en un átomo hidrogenoide solo tiene un electrón, todas sus funciones de onda son orbitales. Éstos tienen la siguiente representación gráfica:



Finalmente damos nombre a nuestras constantes de separación, que llamaremos números cuánticos porque, como hemos visto, adoptan valores discretos (no continuos):

n es el número cuántico principal
l es el númnero cuántico de momento angular y
m es el número cuántico magnético.

Ya podemos comprender la imagen del comienzo de la entrada sabiendo que los números entre paréntesis corresponden a los tres números cuánticos. Y ya está. Lo demás son detalles.