lunes, 31 de mayo de 2010

¿Cómo alivia el dolor la acupuntura?


Este 30 de mayo ha aparecido un artículo en Nature Neuroscience (esto ya es en sí noticioso) sobre la base neurológica de los efectos antinociceptivos locales de la acupuntura o, en otras palabras, sobre cómo actúa para aliviar el dolor.

Antes de entrar a desarrollar lo que dice dicho artículo, por lo demás de acceso libre y gratuito, creemos necesario hacer las siguientes puntualizaciones:

· El estudio, como veremos en seguida, trata de los efectos de la acupuntura en un modelo animal (ratón).

· La investigación se ha centrado en el alivio del dolor en una pata, y sólo en eso. Por favor, no extrapoles los resultados, que son lo que son y dicen lo que dicen.

· Los efectos de la acupuntura pudieron reproducirse con la inyección de un fármaco.

· Acude a tu médico si padeces dolor para un diagnóstico correcto y te indicará el tratamiento adecuado para tu caso.

· La acupuntura hoy día tiene más de charlatanería y, en el mejor de los casos, efecto placebo que otra cosa. Sin embargo, se ha podido comprobar que en el tratamiento del dolor y algunas inflamaciones, correctamente aplicada, sí puede tener algún efecto. Lo científico es comprobar la realidad de lo que se afirma; en este espíritu se ha realizado el estudio y, por eso, lo exponemos en Experientia docet.
El artículo, publicado por un equipo de la Universidad de Rochester (EE.UU.) encabezado por Nanna Goldman, identifica la molécula adenosina como la expresión química de algunos de los efectos de la acupuntura en el cuerpo. Basándose en esta información los investigadores fueron capaces de triplicar los efectos de la acupuntura usando un medicamento para la leucemia humana a la par que las agujas.
La adenosina juega un gran papel en la bioquímica. Aparte de ser la base del transporte de energía en el organismo (en forma de adenosín trifosfato, ATP, y difosfato, ADP) también es un neurotransmisor que actúa en la regulación del sueño, en el ritmo cardíaco y que tiene efectos antiinflamatorios. Pero la adenosina también actúa como un analgésico natural, activándose en la piel después de una herida para inhibir las señales nerviosas y aliviar la percepción de dolor de una forma similar a como lo hace la lidocaína.
En el presente estudio, los investigadores pudieron comprobar que la adenosina estaba presente y activa en los tejidos más profundos afectados por la acupuntura. La investigación se centró en el sistema nervioso periférico, es decir, los nervios de nuestro cuerpo que no son parte del cerebro ni de la médula espinal (que constituyen el sistema nervioso central).
El experimento consistió en aplicar tratamientos de acupuntura a ratones a los que se les había inducido un dolor neuropático mediante la ligadura del nervio ciático de la pata trasera derecha. Cada ratón recibió un tratamiento de acupuntura de 30 minutos en un punto bien conocido cerca de la rodilla, con agujas finas que se rotaban cada cinco minutos. Los niveles de dolor percibido fueron determinados electrofisiológicamente in vivo. Los experimentos se repitieron con ratones de control y con otro grupo modificado genéticamente de forma que estos ratones no expresaban el gen del receptor A1 de la adenosina.
Los resultados obtenidos fueron los siguientes:
- En los ratones con niveles de adenosina normales, la acupuntura redujo el dolor en dos tercios.
- En ratones a los que se les había desactivado genéticamente los receptores A1 de adenosina, la acupuntura no tuvo ningún efecto.
- Cuando se inyectó adenosina en los tejidos, el dolor se redujo incluso sin acupuntura.
- Durante e inmediatamente después del tratamiento de acupuntura, el nivel de adenosina en los tejidos cercanos a las agujas era 24 veces mayor que antes del tratamiento.
Una vez que se constató el papel central que desempeñaba la adenosina y sus receptores, los autores exploraron los efectos de un fármaco para la leucemia llamado deoxicoformicina (Pentostatina), que dificulta a los tejidos reabsorber la adenosina. El compuesto disparó los efectos del tratamiento de acupuntura, casi triplicando la acumulación de adenosina en los músculos y más que triplicando el tiempo durante el que el tratamiento era efectivo.
A la vista de lo anterior parece claro que los receptores A1 de adenosina median en los efectos de la acupuntura. Sin embargo, el mecanismo subyacente aún no está tan bien definido.

Referencia:

Goldman, N., Chen, M., Fujita, T., Xu, Q., Peng, W., Liu, W., Jensen, T., Pei, Y., Wang, F., Han, X., Chen, J., Schnermann, J., Takano, T., Bekar, L., Tieu, K., & Nedergaard, M. (2010). Adenosine A1 receptors mediate local anti-nociceptive effects of acupuncture Nature Neuroscience DOI: 10.1038/nn.2562

domingo, 30 de mayo de 2010

Vida artificial y biología sintética: una aproximación al estado del arte.


Tras el vendaval de la semana pasada con la publicación por parte del equipo de Craig Venter de la creación de una célula bacteriana controlada por un genoma sintetizado químicamente, la posibilidad de obtener “vida artificial” ha pasado a primer plano de la actualidad. Hacemos a continuación una revisión, necesariamente incompleta, de los distintos enfoques que se están empleando para conseguir esta “vida artificial”, dentro de un campo más amplio, la “biología sintética”. Tomamos el trabajo de Venter como referencia a efectos de comparaciones por ser, en estos momentos, el más conocido.
Hablábamos en Venter o el Nuevo Prometeo del intento de Venter (en adelante, por simplicidad, se designa con el nombre del investigador principal al conjunto del equipo) de conseguir un genoma mínimo. En la Escuela de Medicina de Harvard (EE.UU.) Jack Szostak está trabajando para conseguir una célula mínima, cuyos componentes pueden llegar a ser bastante diferentes de los de cualquier forma de vida actual. Szostak está interesado en el origen de la vida y quiere desarrollar algo análogo a lo que él piensa que era en sus estados más primitivos: un recipiente en el que un ciclo automantenido de reacciones químicas puede reproducirse a sí mismo.
En una célula moderna, una bacteria por ejemplo, las instrucciones del ADN se transcriben en una molécula relacionada llamada ARN. Las moléculas de ARN mensajero pasan la información a estructuras llamadas ribosomas, que la leen y fabrican proteínas de acuerdo con ella. El conjunto del proceso también incluye un buen número de proteínas, llamadas enzimas, que actúan como catalizadores de las reacciones.
Muchos biólogos, Szostak entre ellos, piensan que la vida tuvo un estado primitivo más sencillo en el que las distintas tareas que ahora son llevadas a cabo por el ADN, el ARN y las proteínas, eran realizadas por el ARN solamente. Incluso hoy las moléculas de ARN no son solamente mensajeras; también son distribuidoras de aminoácidos, los componentes de las proteínas. Y también pueden catalizar reacciones, como hacen las proteínas. Entonces, en principio, el ARN podría actuar tanto de material genético de la célula como de mecanismo de autoensamblaje.
Si esta idea es cierta, sería posible hacer una célula usando solamente una membrana para mantener las cosas en su sitio, algo de ARN, ingredientes para más ARN y una fuente de energía. Esta última suele tener la forma de la molécula ATP, que es la que usan las células modernas para mover la energía de donde se ha generado a donde se usa. Szostak ya ha fabricado una variedad de ribozimas, como se conoce al ARN que actúa de catalizador, y algunos de ellos usan ATP como fuente de energía. Aún no ha conseguido un sistema que se replique a sí mismo, pero este es su objetivo.
La célula de Szostak, si así se la puede llamar, será muy diferente de la vida basada en ADN y proteínas tan familiar para los biólogos. Sería, desde algunos puntos de vista, un logro mayor que el de Venter, ya que crearía algo que se puede llamar vida partiendo realmente desde cero; pero sería de menos importancia práctica, ya que ese algo sería muy primitivo comparado incluso con la más simple de las bacterias.
Jack Szostak ha recibido el premio Nobel de Medicina de 2009 por sus estudios sobre la telomerasa. Los ganadores ese mismo año del de Química tienen mucho que ver con nuestro siguiente personaje, pues lo recibieron por los estudios referentes a la estructura y función de los ribosomas.
George Church, también de la Universidad de Harvard y uno de los iniciadores del Proyecto Genoma Humano, sueña con hacer algo inmensamente práctico que Venter ha descartado: un ribosoma. El atajo que ha tomado Venter (poner en marcha un cadáver bacteriano) significa que el bicho recién terminado tiene que depender de los ribosomas de su huésped muerto para fabricar las proteínas que el genoma describe. Sin embargo, tiene los genes para hacer sus propios ribosomas y conforme avanza el tiempo los terminará creando, diluyendo el legado con el que comenzó. Venter calcula que, una vez que JCVI-syn1.0 haya sufrido 30 divisiones, toda traza de la célula original habrá desaparecido. Pero eso no elimina el hecho de que las nuevas células se han basado en el resultado de los genes de la antigua para empezar a funcionar.
Church está trabajando en hacer ribosomas (unos artilugios complejos con docenas de proteínas y ARN) a partir de cero. Hasta ahora se las ha apañado para sintetizar todos los componentes de ARN de tal manera que, cuando se mezclan con proteínas naturales de ribosoma, forman ribosomas que funcionan. Hacer las proteínas desde cero es más difícil porque su forma es crucial para su función, por lo que no está claro si se molestará en intentarlo.
Aunque Church es de los que tiene interés en hacer cosas por primera vez, también es cierto que está concentrado en la fabricación de herramientas. Church es de la opinión de que los ribosomas artificiales podrían elaborarse especialmente para añadir nuevas posibilidades a la biotecnología, una productividad de proteínas mayor que la natural, por ejemplo. Y este es precisamente el quid de la cuestión y objetivo último: un control práctico sobre lo que se puede conseguir que haga la vida.
Otro enfoque declaradamente práctico es el de Drew Endy, de la Universidad de Stanford (EE.UU.). Endy pretende conseguir que la forma en que las células procesan la información genética sea más parecida a la forma en que lo hacen los ordenadores de andar por casa. De la misma manera que los ordenadores se construyen a partir de componentes que se pueden pedir de un catálogo, Endy está intentando construir un catálogo de componentes que él llama “biobricks” que, cuando se unen, forman “circuitos” biológicos útiles. Los biólogos “sintéticos” serán capaces de pedir tramos de ADN que codifican biobricks y unirlos para realizar sus proyectos.
El enfoque de Endy es intrigante. Su plan de “reimplementar” la vida parece más el deseo de un ingeniero de reemplazar la herencia desordenada de la biología, con todos sus ensayos y errores, con algo diseñado para que sea apropiado para el propósito práctico de un físico. Todavía queda por ver que funcione. Pero un enfoque menos completo del diseño modular está también en la base del próximo paso en los planes de Venter.
La biotecnología algunas veces se parece a esa otra popular interacción con la naturaleza, la jardinería. Se fundamenta en gran medida en podar e injertar. La biotecnología que actúa gen a gen se enfrenta constantemente al problema de que a los organismos vivos les gusta vivir su vida, independientemente de lo que sus amos humanos quieran de ellos. La poda en biotecnología implica eliminar las tendencias que podrían ser útiles a un organismo salvaje, pero que merman su energía y esfuerzos metabólicos en los aspectos deseados. Los injertos consisten en añadir nuevas características provenientes de otra parte al pie ya preparado.
Craig Venter quiere volver a su idea original de crear un genoma mínimo, podando completamente con el objeto de ser capaz de hacer a continuación un trabajo mucho más concienzudo de injerto de lo que hasta ahora ha sido posible. Es esta ambición lo que hace su trabajo algo más que una novedad impresionante, colocándolo como un hito: si lo consigue, se pasaría de una biotecnología que manipula un gen cada vez a la industria de la biología sintética, cuyo objetivo es hacer cambios masivos a los organismos vivos.
Durante la década pasada ha quedado claro que las bacterias son más que compatibles con la idea de genes intercambiables. Cada miembro de una especie bacteriana, o grupo de especies, tiene un subconjunto de genes (de cientos a unos cuantos miles) tomados del conjunto que está en un banco de genes que contiene muchos miles. Comparando grandes cantidades de bacterias diferentes pero relacionadas se puede poner de manifiesto un “núcleo duro”, el conjunto intersección, lo que vendría a ser un genoma mínimo. En su búsqueda de bacterias útiles (que puedan, por ejemplo, fabricar ciertos fármacos en cantidad), el enfoque de Venter de poda e injerto sistemático puede que sólo esté ordenando un método que se ha venido utilizando durante los últimos cuatro mil millones de años, puede que devolviéndolo incluso a sus fundamentos.
Sin embargo no planea quedarse en las bacterias. El otro reto, además del genoma mínimo, es repetir el truco con algas unicelulares.
El paso de bacteria unicelular a alga unicelular puede parecer corto. Pero las algas están al otro lado de la gran línea divisoria de la vida, la que existe entre las criaturas con un genoma simple que es sólo un gran bucle de ADN en una célula (procariotas) y aquellas otras cuyos genomas están en el interior de un núcleo y dividido en cromosomas (eucariotas). Este segundo grupo incluye a los animales, las plantas, los hongos y las algas. Sin menospreciar a las bacterias, que son notablemente innovadoras y espectacularmente duraderas, las criaturas que han tomado el camino nuclear son mucho más interesantes: el mismo Homo sapiens es una de ellas.
Las algas son interesantes por otras razones. Mucha gente, incluyendo a Venter, quiere usarlas para producir biocombustibles. Transformarían el dióxido de carbono de la atmósfera (esto es lo que se vende, industrialmente es más eficiente tomarlo de una fuente de suministro de concentración continua, como la chimenea de una central térmica) en gasolina o diésel por fotosíntesis. Por ahora, casi todos los microbios que hacen biocombustibles emplean la fermentación: la fotosíntesis la hace, por ejemplo, la caña de azúcar, y los azúcares así obtenidos son fermentados por microorganismos modificados de una forma u otra para obtener gasolina. El uso de algas eliminaría el paso intermedio.
Análogamente a la famosa ley de Gordon Moore acerca de los incrementos de capacidad de los circuitos integrados, las bases de datos mundiales se están llenando con genes de todas y cada una de las ramas del árbol de la vida a un ritmo que va aumentando conforme disminuye el coste de secuenciar el ADN. Pero como también baja el coste de sintetizarlo, también aumenta la facilidad para que los genes se sometan a un proceso de corta y pega. Partiendo de esta versión de la ley de Moore, podemos afirmar que la biología sintética, la vida artificial incluída, es sólo y exclusivamente cuestión de tiempo.

jueves, 27 de mayo de 2010

Los días de lluvia no deprimen.


Existe la creencia muy extendida de que el tiempo atmosférico afecta al estado de ánimo, y de que tendemos a estar más deprimidos en invierno y que el verano trae un “subidón” emocional. La veracidad de esta idea ha sido investigada anteriormente en varios pequeños estudios que han terminado encontrando datos inconsistentes. Un nuevo estudio que se publica en Psychiatry Research usó a cerca de 14.500 personas para concluir que el tiempo no nos afecta, mientras que los efectos estacionales sí existían pero no como la gente supone.

Los investigadores de la Universidad de Maastricht (Países Bajos), encabezados por Marcus Huibers, comprobaron tanto el efecto de los cambios diarios en el tiempo como la influencia de la estación del año. Para ello enviaron miles de invitaciones por correo a ciudadanos holandeses para completar un cuestionario estándar para el diagnóstico de la depresión en Internet, en tandas de unos cuantos miles cada semana durante 18 meses. Respondieron 14.478 personas.

Esta forma de actuación permitió a los investigadores comprobar los efectos del tiempo atmosférico exacto de un día en los estados de ánimo de los participantes.

Ni la temperatura, ni la cantidad de sol o de lluvia tenían ningún efecto inmediato sobre el estado de ánimo. Sí se pudo comprobar que los cambios de estación tenían influencia, pero no el que vulgarmente se cree: los hombres presentan picos estacionales de depresión y tristeza en verano, mientras que las mujeres presentan los picos estacionales en otoño.

Conviene recordar que estas conclusiones se refieren a la media estadística de una población. Algunas personas padecen lo que se conoce como trastorno afectivo estacional (simplificando, que la llegada del invierno les provoca depresión) pero según este estudio ello no es extrapolable al conjunto de la población.

Referencia:

Huibers MJ, de Graaf LE, Peeters FP, & Arntz A (2010). Does the weather make us sad? Meteorological determinants of mood and depression in the general population. Psychiatry research PMID: 20494449

martes, 25 de mayo de 2010

El nanofrío que viene.


Nanoesto, nanoaquello, nanolootro. La idea de que hacer cosas tan pequeñas que mides sus dimensiones en nanometros (milmillonésimas de metro) conlleve ventajas que no están al alcance de objetos mayores ha estado rondando durante una década. Lo suficiente como para que los escépticos se pregunten si algo útil saldrá alguna vez de estas nanocosas. Sin embargo, parece probable que algo útil esté a punto de salir.

Las pruebas indican que añadir una pizca de nanopartículas al agua mejora su conductividad térmica, y por lo tanto, su capacidad para evacuar calor de lo que esté en contacto con ella, ¡en un 60%! En un mundo en el que el coste de la refrigeración es una carga económica no pequeña (la refrigeración industrial consume el 7% de la electricidad generada en la Unión Europea) esto supone una mejora significativa. Permitiría, por ejemplo, que los enormes y costosos almacenes llenos de ordenadores que mantienen en funcionamiento Internet pudiesen albergar más servidores por metro cuadrado de suelo disponible.

La refrigeración por nanofluidos, como se conoce el fenómeno, se descubrió hace casi dos décadas, pero es ahora cuando comienza a salir del laboratorio. Un nanofluido no es más que una suspensión coloidal de nanopartículas en un fluido, en nuestro caso agua. Es el tipo de coloide que se llama sol, una dispersión de partículas sólidas en un medio dispersante líquido, como la tinta. El desarrollo de esta tecnología, aparentemente tan simple, no ha estado exento de dificultades.

La primera dificultad fue impedir la tendencia de las partículas a juntarse y dejar de ser nano. Eso se solucionó añadiendo agentes emulsionadores a la mezcla como el bromuro de cetrimonio (hexadeciltrimetil amonio), que se desarrolló originalmente como antiséptico.

El segundo problema era qué partículas usar. De momento parece que los óxidos de metales como el zinc (ZnO) y el cobre (CuO) están entre los favoritos, pero también se están estudiando las propiedades de la alúmina (Al2O3) y de los nanotubos de carbono (C). De aquí surge la pregunta de cuál es la base del funcionamiento de este fenómeno. No es solamente que el ingrediente añadido (el óptimo parece estar del 6 al 8% del volumen total) sea en sí mismo un buen conductor del calor, aunque eso ayude. Los nanofluidos son mejores conductores que la suma de sus partes. Esto sugiere que las partículas están cambiando la estructura misma del agua de forma que mejoran su conductividad. El agua, a pesar de no parecer tener estructura interna, la tiene, especialmente cuando está fría. Las moléculas están organizadas de forma que recuerdan a la estructura del hielo, pero más “sueltas”. Las nanopartículas alteran, inevitablemente, esta disposición y esto puede hacer a la mezcla más capaz de transmitir el calor. Si se conociesen estos cambios, escoger el tamaño y la composición de las nanopartículas sería un poco menos de ensayo y error.

El tercer problema es el paso del laboratorio a la escala industrial. Cuando las cantidades aumentan, la forma en la que los componentes se mezclan y reaccionan se altera significativamente. Esto hace que sea difícil predecir a partir de experimentos a pequeña escala que ocurrirá en una instalación comercial.

Si estos problemas pueden ser superados se anuncia un gran futuro, y parte de la nanomoda podría convertirse en un producto útil.



lunes, 24 de mayo de 2010

El escáner afecta al metabolismo del cerebro.


Una investigación realizada en el Instituto Nacional sobre el Abuso de Drogas y encabezada por Nora Volkow, pone de manifiesto que los escáneres por resonancia magnética funcional (fMRI) afectan al metabolismo de la glucosa por parte del cerebro. Este resultado, de enorme trascendencia, primero pone en cuestión los datos obtenidos por esta técnica en los últimos años, en segundo lugar pone de manifiesto que la fMRI no es inocua y, por último, abre la puerta a nuevos usos terapéuticos. El artículo se publica en NeuroImage.

Los autores se han planteado la más sencilla de las preguntas: "¿afecta el fMRI y sus cambios de gradiente al funcionamiento del cerebro?" Con cambios de gradiente nos referimos a la base del funcionamiento de estos escáneres: cambios rápidos del gradiente de campos magnéticos, que pueden generar campos eléctricos que, a su vez, podrían afectar a la actividad neuronal.

Es increíble que haya cientos de miles de artículos que usan la fMRI para obtener imágenes e investigar el cerebro y ninguno se haya molestado en investigar si el instrumento de medida afectaba al sistema que se iba a medir. Resulta que sí lo hace, y esto tiene implicaciones para la seguridad de su uso y para crear una nueva generación de escáneres/estimuladores combinados.

A lo largo de los años ha habido informes sobre la estimulación de los nervios periféricos con gradientes que cambian rápidamente, pero todo el mundo ha asumido (porque sí) que el fMRI no cambia la actividad del cerebro realmente. Incluso hubo un artículo en el que se afirmaba que algunas secuencias de MRI podrían cambiar el estado de ánimo y tratar la depresión.

La gran ventaja del fMRI para el estudio del cerebro es que es una técnica no invasiva y prácticamente en tiempo real. Volkow y sus colaboradores usaron una técnica más laboriosa y algo más invasiva para controlar el funcionamiento del cerebro con y sin el fMRI funcionando. Inyectaron a los 15 voluntarios sanos fluorodeoxy-D-glucosa, en la que el flúor era F-18, un radioisótopo que es una fuente de positrones (sí, antimateria), para monitorizar mediante tomografía por emisión de positrones (PET, por sus siglas en inglés) su distribución, que se correlaciona con lo que el cerebro hace en cada momento. Durante el tiempo de metabolización los voluntarios estuvieron dos veces en un escáner de 4 teslas, una vez apagado y la otra encendido.

Es decir, usaron PET para ver lo que estaba pasando en el cerebro durante el escáner fMRI y encontraron que había cambios en el cerebro asociados con el funcionamiento del escáner. Estos cambios eran proporcionales a la intensidad del campo eléctrico generado por los cambios de gradiente. El fMRI cambiaba el metabolismo (relativo) en las áreas correspondientes a los polos del cerebro: los córtex occipital inferior y frontal por un lado y parietal superior, por otro.

Las consecuencias tienen un alcance enorme. En cuestión de seguridad, ya no se puede asumir que el fMRI no afecta al cerebro. Ahora se hace necesario estudiar qué campos y gradientes son seguros y cuáles no. El estudio también sugiere que, si conseguimos comprender mejor cómo el fMRI causa los cambios en el metabolismo, se podrían crear máquinas de nueva generación, que por una parte podrían ser escáneres y por otra podrían ser estimuladores. Finalmente, los resultados obtenidos en la investigación en los que se veían implicadas las zonas afectadas por el funcionamiento del fMRI, pasan automáticamente a estar en revisión.

Referencia:

Volkow ND, Tomasi D, Wang GJ, Fowler JS, Telang F, Wang R, Alexoff D, Logan J, Wong C, Pradhan K, Caparelli EC, Ma Y, & Jayne M (2010). Effects of low-field magnetic stimulation on brain glucose metabolism. NeuroImage, 51 (2), 623-8 PMID: 20156571

domingo, 23 de mayo de 2010

Einstein y...el condensado de Bose-Einstein.


En los años 20 del siglo XX, Albert Einstein amplió las ideas del físico indio Satyendra Nath Bose para predecir que, a temperaturas extremadamente frías, los átomos se unirían en una nueva fase de la materia (diferente a líquido, gas, sólido o plasma) conocida como condensado de Bose-Einstein.

En 1924, Bose vivía en Calcuta y no conseguía llamar la atención de sus colegas europeos sobre su trabajo. Se decidió a escribir a Einstein, adjuntándole un artículo que usaba una nueva forma de estadística para deducir la ley de Planck, la famosa ecuación que representa la intensidad de la radiación de un cuerpo negro como función de la temperatura. Einstein quedó impresionado con la mecánica estadística de fotones de Bose, calificándola como “una avance significativo”. Tradujo personalmente el artículo al alemán e intervino para que se publicase [1] en Zeitschrift Für Physik en 1924.

La nueva estadística de Bose ofrecía más información sobre cómo comprender el comportamiento de los fotones. Bose demostró que si un fotón alcanzaba un estado cuántico específico (un conjunto de variables que incluye la energía que tiene el fotón), entonces existía una pequeña tendencia a que el siguiente fotón alcanzase el mismo estado. Es como si cada vez que golpeases una bola de billar americano hubiese más probabilidad de que fuese a la tronera (bolsillo) donde ya hay una bola.

Bose había aplicado su estadística a un “gas” de fotones. Esto indujo a Einstein a considerar la aplicación de la estadística de Bose a un gas ideal de átomos o moléculas; Einstein quería ver qué pasaba cuando uno trataba con materia de verdad. Basándose en el trabajo de Bose, Einstein terminó deduciendo un conjunto de fórmulas que predecían cómo los átomos de un gas deberían comportarse, que resulta ser correcto para cierto tipo de partículas, entre ellas protones y neutrones, que ahora se conocen, apropiadamente, como bosones.

Como consecuencia de estas nuevas ideas surgía una predicción de lo que les ocurriría a los átomos a temperaturas extremadamente bajas, cercanas al cero absoluto. En 1925, Einstein descubrió que si a un gas se le baja la temperatura hasta aproximarla al cero absoluto, una temperatura a la que los átomos casi no se muevan, todos alcanzarán exactamente el mismo estado cuántico.

Volviendo a la mesa de billar, podemos imaginar que dejamos caer 20 bolas sobre la mesa y vemos cómo ruedan cada una hasta terminar en troneras diferentes. Esta clase de rodar aleatorio es lo que ocurre a temperaturas normales: cada átomo en un estado cuántico específico. Pero cerca del cero absoluto, esas bolas dejadas caer irían, una tras otra, a la misma tronera. En el cero absoluto, los átomos se “bloquean” en el mismo estado cuántico y van uno detrás de otro sin discusión. Se unen en un nuevo estado de la materia que se denomina condensado de Bose-Einstein. Todos los átomos en un condensado de Bose-Einstein pierden su identidad individual. Marchan al unísono, actuando como un solo superátomo. De hecho, los condensados de Bose-Einstein interaccionan entre sí como una partícula con otra: se repelen o atraen igual que los átomos individuales.

Einstein publicó su trabajo en dos artículos en 1925 [2][3], cuando tenía 46 años. No es habitual que un científico haga una contribución de este calibre en un campo completamente nuevo cuando ya tiene más de 40 años y, de hecho, esta fue la última gran contribución de Einstein a la física. Setenta años más tarde el condensado de Bose-Einstein fue observado experimentalmente en átomos de rubidio.

Referencias:

[1]

Bose, S.N . (1924). Plancks Gesetz und Lichtquantenhypothese Zeitschrift für Physik, 26 (1), 178-181 DOI: 10.1007/BF01327326


[2]

Einstein, A. (1925). Quantentheorie des einatomigen idealen Gases.I Sitzungsberichte Akad. Berlin DOI: 10.1002/3527608958.ch27

[3]

Einstein, A. (1925). Quantentheorie des einatomigen idealen Gases.II Sitzungsberichte Akad. Berlin DOI: 10.1002/3527608958.ch28

sábado, 22 de mayo de 2010

Venter o el nuevo Prometeo



Al final no hizo falta ni castillo, ni tormenta eléctrica y ciertamente ningún ayudante de laboratorio jorobado. En cualquier caso, Craig Venter y sus colegas han hecho realidad lo que Mary Shelley sólo imaginó. El 20 de mayo, en las páginas de Science, anunciaron que habían creado “una criatura viva”.
Al igual que el protagonista de Shelley, Venter necesitó algunas piezas de cuerpos muertos para hacer que su criatura funcionase. A diferencia de Victor Frankenstein, no necesitó ninguna chispa enviada por Júpiter Fulgurator para dar a la criatura su esencia vital. Por el contrario, fabricaron esa esencia, un trozo de ADN que porta 1.000 genes, a partir de botes de productos químicos. El resultado es la primera criatura, desde el comienzo de las criaturas, que no tiene un ancestro. Lo que es, y cómo vive, depende completamente del diseño hecho por los científicos del Instituto J. Craig Venter y que se conserva en los ordenadores de sus sedes de Maryland y San Diego (EE.UU.). Cuando la primera de estas criaturas artificiales mostró que podía reproducirse, comenzó la era de la vida artificial.
La ambición de Venter de crear un organismo vivo a partir de cero comenzó hace unos 15 años, y ha sido del dominio público desde hace 10. Después de tanto tiempo existe la tentación para los especialistas de decir “enséñanos algo que no sepamos”. Después de todo, el ADN de síntesis se incorpora a seres vivos rutinariamente por muchos investigadores, compañías de biotecnología y hasta escolares. Venter lo que ha hecho, simplemente, es hacerlo a gran escala.
Pero Venter y su equipo también han demostrado, de la forma más contundente que se haya hecho nunca, que la esencia de la vida es la información. Hasta ahora esa información había sido pasada de un ser vivo a otro. Ya no tiene que ser así. La materia inerte contenida en unos botes de plástico y cristal puede traerse a la vida sin necesidad de un rayo, una esencia vital o un dios. Y este nuevo poder permitirá la manipulación a gran escala de los organismos vivos. Hasta ahora, la modificación genética ha sido el trabajo de aprendices y oficiales. Este nuevo paso es, en el verdadero y original sentido de la palabra, una obra maestra. Es la demostración de que el profesional se ha convertido en maestro.
El anuncio es importantísimo y transcendente. Pero no es inesperado. Hacemos a continuación un breve repaso a la trayectoria seguida por Venter y su equipo (en adelante, Venter) hasta llegar a este punto.
El viaje a la maestría ha sido muy largo. Originalmente, no deseando emplearse en tareas más difíciles de lo que era necesario, Venter encontró la cosa viva más pequeña que pudo y se dispuso a hacerla más pequeña. El bicho que escogió fue Mycoplasma genitalium, una criatura que, como su nombre indica, vive en los genitales. Con sólo 485 genes, es la bacteria que vive independientemente más pequeña. A continuación desactivó los genes uno a uno para ver cuáles afectaban a su viabilidad, con la esperanza de hacer un organismo aún menor que pudiese usar entonces como modelo para su síntesis.
Esto terminó siendo un callejón sin salida. Aunque se descubrió que la bacteria podía vivir sin 100 genes, al menos en las condiciones del laboratorio, no podía pasar sin todos ellos a la vez. Y encontrar qué genomas reducidos, al menos parcialmente, podrían servir llevó demasiado tiempo, porque M. genitalium crece muy lentamente.
Por si esto fuese poco, la razón para desear un genoma muy pequeño empezó a desaparecer. Las técnicas de síntesis de ADN iban mejorando cada vez más y eran más y más baratas en términos de dólares por base. Así que Venter cambió de opinión y se decidió a ir a por una versión ligeramente modificada del genoma completo de M. genitalium.
Por esta época, en 2003, sintetizó el genoma de un virus, Phi-X174, que sólo tiene 11 genes. No fue el primer virus artificial; un equipo de la Universidad del Estado de Nueva York en Stony Brook había hecho una copia del virus de la polio el año anterior. Pero el de Stony Brook era algo limitado, sólo capaz de reproducirse. El de Venter era de verdad: cuando introdujo el ADN viral en células huésped, éstas comenzaron a escupir nuevos virus tan autodestructivamente como las células infectadas con el Phi-X174 natural.
La idea subyacente a los esfuerzos para crear una bacteria artificial era, esencialmente, tratar un genoma sintético grande como una versión gigante de Phi-X174 y usarlo para secuestrar una célula a la que se habría desprovisto de su ADN. La diferencia era que esta vez el resultado no sería una célula que produciría más virus, sino una célula que produciría más células. Para cuando la célula así secuestrada hubiese sufrido varias divisiones, toda traza de su ser anterior habría sido borrada; sus varias veces tataranietas se habrían convertido en células correspondientes al ADN secuestrador.
Sintetizar el genoma resultó algo relativamente sencillo. Fue dividido en “cassettes” de unos 1.000 pares de bases de longitud (un par de bases es una de las “letras” de las que se compone el ADN). Se unieron mediante química estándar, nada nuevo, sólo mucho trabajo delicado y laborioso. Para unir las cassettes en el orden correcto para producir el genoma final el equipo utilizó células de levadura.
En este punto era necesario preparar los cadáveres, lo que demostró ser muy complicado. No era sólo coger una bacteria muy relacionada con M. genitalium, quitarle el ADN y ya está. Las bacterias tienen defensas contra los virus en forma de sustancias químicas llamadas enzimas de restricción, que se dedican a cortar el ADN invasor. Estas enzimas (descubiertas en los años 70 por Hamilton Smith, estrecho colaborador de Venter; trabajo que le valió el premio Nobel) estarán en el cadáver libre de ADN acechando y, en cuanto llegue el ADN sintético, se dedicarán a cortarlo antes de que haga su trabajo. El último trabajo en esta carrera de obstáculos era la creación de una cepa de bacterias sin genes para la síntesis de enzimas de restricción y, por consiguiente, un cadáver sin enzimas de restricción en el que ADN sintético pudiese trabajar sin interferencias. [Véase Transplantes de genoma sin rechazo: un paso hacia la vida artificial]
O casi el último paso. M. genitalium todavía tenía el problema del crecimiento lento, por lo que Venter decidió cambiar a Mycoplasma mycoides. Esta bacteria tiene el doble de ADN, pero eso ya no importaba a estas alturas. Para hacer la nueva bacteria reconociblemente diferente, Venter borró 14 genes que se consideraban prescindibles de M. Mycoides, y añadió un poco de ADN diseñado desde cero en un proceso que Venter llama “marcado al agua”.
En este punto Venter, ya con hechuras de maestro, se permitió lo que en toreo se llama adornarse. La “marca al agua”, según Venter, incluye para quien sea capaz de leerlo y descifrarlo, un cifrado que contiene la dirección de una página web y tres citas (una se puede ver aquí). La textualidad de la marca al agua identifica a una bacteria que la contenga como procedente del laboratorio de Venter, incluyendo el número de serie JCVI-syn1.0. La idea original de referirse al resultado como Mycoplasma laboratorium, y que fuese reconocida como una nueva especie, ha sido abandonada, de momento.
La marca al agua, como decimos, no es sólo para lucimiento del maestro. Significa que si, a pesar de las precauciones, el Frankenbicho termina escapando, su presencia (completamente inocua, por otra parte) sería detectada en cualquier muestra mediante un simple ensayo de amplificación de ADN del que usa la policía para las huellas genéticas. A nadie se le oculta que la marca al agua también será útil si los ADN sintetizados en un futuro terminan patentándose.
Una vez que el genoma finalizado se insertó en la bacteria sin genoma, el funcionamiento del conjunto volvió a ser la microbiología que habría sido familiar para los pioneros de esta ciencia del siglo XIX. El fluido con la bacteria se sembró en placas con agar. Los puntos que aparecieron en el agar como bacterias individuales crecieron y se multiplicaron. Como comprobación, los investigadores secuenciaron el ADN de algunas colonias (el genoma del Mycoplasma es la clase de cosa que un secuenciador moderno puede liquidar antes del café de media mañana). Las colonias tenían, realmente, los genomas sintéticos. La obra maestra estaba viva.
Referencia:
Gibson, D., Glass, J., Lartigue, C., Noskov, V., Chuang, R., Algire, M., Benders, G., Montague, M., Ma, L., Moodie, M., Merryman, C., Vashee, S., Krishnakumar, R., Assad-Garcia, N., Andrews-Pfannkoch, C., Denisova, E., Young, L., Qi, Z., Segall-Shapiro, T., Calvey, C., Parmar, P., Hutchison, C., Smith, H., & Venter, J. (2010). Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome Science DOI: 10.1126/science.1190719

viernes, 21 de mayo de 2010

La vida maravillosa continúa.


Algunos descubrimientos son tan inusuales que se emplean años, décadas y algunas veces siglos en comprender su significado completo. Uno de estos descubrimientos es un lugar llamado Burgess Shale, que contiene un registro fósil de las más extrañas criaturas que vivieron hace 505 millones de años. Fue descubierto en las Montañas Rocosas canadienses hace más de un siglo y se hizo famoso tras el libro "Wonderful Life" (Vida maravillosa) de Stephen Jay Gould. Durante mucho tiempo se ha creído que la curiosa fauna que vivió allí desapareció en una serie de extinciones basándose simplemente en que termina el registro fósil. Pero ya no parece que sea así.

Burgess Shale apareció poco después de un periodo conocido como la explosión del Cámbrico, en el que surgieron la mayoría de grupos de animales complejos en un intervalo de tiempo sorprendentemente corto. Hace más de 560 millones de años la mayor parte de seres vivos eran o bien células individuales o simples colonias de células. Entonces, por razones que continúan siendo un misterio, la vida se diversificó masivamente y se volvió aún más compleja ya que la tasa de evolución aumentó. Una característica inusual de Burgess Shale es que es uno de los estratos de fósiles más antiguos que contienen impresiones de las partes blandas de los animales. Uno de los secretos mejor guardados de la paleontología es que los fósiles no son un registro de la vida que existía en un determinado momento, sino un registro de la vida con huesos y conchas.

Aunque el estrato de fósiles se descubrió en una montaña, cuando estos animales estaban vivos merodeaban bajo un océano, cuyo lecho fue más tarde levantado por los movimientos tectónicos para crear las Montañas Rocosas. Nadie sabe exactamente por qué estaban tan bien preservados. Una posibilidad es que estas criaturas fueran enterradas rápidamente y en unas condiciones no apropiadas para la descomposición de las partes blandas del cuerpo por bacterias.

Los que trabajaron primero en Burgess Shale, desenterrando 65.000 especímenes durante un período de 14 años hasta 1924, dieron por sentado que los fósiles provenían de miembros extintos de grupos de animales que existen hoy día. Esto resultó ser una traba a la investigación, ya que las criaturas eran tan inusuales que todavía es difícil clasificarlas.

El Opabinia regalis, por ejemplo, tenía unos 8 centímetros, cinco ojos, un cuerpo que eran una especie de lóbulos, una cola con forma de ventilador y comía usando una larga probóscide (una “trompa”). Pero es que, al final de la probóscide, tenía una conjunto de pinzas que usaba para agarrar la comida y llevársela a la boca.

El Nectocaris ptyrex, parecía poco más o menos una sanguijuela, pero con aletas y tentáculos.

El rey de la rareza era, sin duda, el bien llamado el pequeño (3 milímetros) Hallucigenia sparsa. Tenía múltiples espinas y tentáculos y nada en él tiene sentido. No se sabe muy bien qué parte iba arriba y cuál abajo, por qué agujero entraba la comida y por cuál otro salía. Se ha llegado a pensar que era un apéndice de otro animal mayor.

Los paleontólogos han pensado durante mucho tiempo que los animales de Burgess Shale son ejemplos de experimentos de la evolución. En otras palabras, formas de vida completamente nuevas que no sobrevivieron o que llevaron a otros grupos o especies. Irónicamente, Hallucigenia, resultó ser la excepción que confirmó la regla. Hoy se piensa que fue un ancestro de los artrópodos modernos, que incluye cualquier cosa con un exoesqueleto duro, desde moscas y mariposas a ciempiés y cangrejos. Muchas otras de esas extrañas criaturas resultan ser caras familiares disfrazadas.

Ahora otro malentendido ha sido eliminado. En un artículo publicado en Nature por un equipo de investigadores encabezado por Peter van Roy de la Universidad de Yale sugiere que la repentina ausencia de estos fósiles de cuerpo blando no se debió a una extinción masiva, sino a la modificación de las condiciones inusuales que permitían su conservación. En una zona del Atlas marroquí los investigadores han encontrado otra colección de organismos de cuerpo blando de una época no muy posterior a Burgess Shale, el Ordovícico. Esto sugiere que la evolución de esa vida extraña continuó sin interrupción. Por su parte, Burgess Shale continúa produciendo un increíble abanico de criaturas increíbles a una velocidad mayor de lo que los paleontólogos pueden examinarlas.

Referencia:

Van Roy, P., Orr, P., Botting, J., Muir, L., Vinther, J., Lefebvre, B., Hariri, K., & Briggs, D. (2010). Ordovician faunas of Burgess Shale type Nature, 465 (7295), 215-218 DOI: 10.1038/nature09038

jueves, 20 de mayo de 2010

Enfermedad mental y creatividad: una base fisiológica común.


¿La esquizofrenia y la creatividad están relacionadas? Hay grandes creadores que han padecido esta enfermedad pero, ¿subyace alguna base neurológica común? Un estudio publicado en PloS ONE por un grupo de investigadores del Instituto Karolinska (Suecia) da una respuesta afirmativa: el sistema dopaminérgico en las personas muy creativas sanas es similar en algunos aspectos al de la gente con esquizofrenia.

Se ha demostrado que la creatividad es, de alguna manera, más frecuente en la gente que tiene antecedentes de enfermedad mental en la familia. La creatividad también está unida a un riesgo ligeramente mayor de esquizofrenia y trastorno bipolar. Algunos rasgos psicológicos, como la capacidad para hacer asociaciones inusuales y estrambóticas, son comunes a esquizofrénicos y personas sanas altamente creativas. Estos indicios de que había algo común a nivel fisiológico se ven ahora refrendados.

Los investigadores, encabezados por Örjan de Manzano, se centraron en el estudio de un tipo concreto de receptor de la dopamina, el D2. En concreto analizaron la densidad del receptor en el tálamo, en el estriado y en el córtex frontal mediante tomografía por emisión de positrones (PET, por sus siglas en inglés) en 13 voluntarios sanos que mostraron su capacidad creativa mediante un test de pensamiento divergente (la batería de “Inventiva” del Berliner Intelligenz Struktur Test).

Los resultados muestran que la gente altamente creativa, que obtuvo buenos resultados en el test de pensamiento divergente, tenía una densidad más baja de receptores D2 en el tálamo que la gente menos creativa. Se sabe que los esquizofrénicos también tienen una densidad baja de D2 en esta parte del cerebro, lo que sugiere que éste sería un indicio de que existe una causa neurológica para la conexión entre enfermedad mental y creatividad.

El tálamo tiene múltiples funciones. Se piensa que actúa de repetidor y filtro entre varias áreas subcorticales y el córtex cerebral. Cada sistema sensorial (a excepción del olfativo) incluye un núcleo talámico que recibe las señales sensoriales y las reenvía filtradas al área cortical asociada. Un menor número de receptores D2 en el tálamo probablemente signifique un menor grado de filtrado y, por tanto, un mayor flujo de información hacia las áreas responsables del pensamiento del córtex. Este podría ser el mecanismo que explique por qué tanto las personas sanas muy creativas como los esquizofrénicos ven muchas conexiones nada comunes en una situación de resolución de problemas.

Referencia:

de Manzano, Ö., Cervenka, S., Karabanov, A., Farde, L., & Ullén, F. (2010). Thinking Outside a Less Intact Box: Thalamic Dopamine D2 Receptor Densities Are Negatively Related to Psychometric Creativity in Healthy Individuals PLoS ONE, 5 (5) DOI: 10.1371/journal.pone.0010670

martes, 18 de mayo de 2010

Cómo usar las redes sociales para la detección temprana de brotes de enfermedades contagiosas.


Lo más probable es que tus amigos sean más populares que tú. Esta es una de las características de las redes sociales que ya se conoce desde hace tiempo y recibe el nombre de "paradoja de la amistad". Para lo que sigue es importante entender este concepto, así que intentaremos ilustrarlo con un ejemplo.

Consideremos a una persona que suele dar fiestas, recibir amigos, y que conoce a cientos de personas y, por otro, a un misántropo con sólo uno o dos amigos. Estadísticamente hablando, una persona escogida al azar es mucho más probable que conozca al que da fiestas, simplemente porque tiene más amigos. En términos más formales la paradoja se puede expresar de la siguiente manera: los amigos de cualquier individuo aleatorio es más probable que estén en una posición más central de la red social que el propio individuo.

En un estudio colgado en arXiv y que será publicado en los Proceedings of the National Academy of Sciences, Nicholas Christakis de la Universidad de Harvard (EE.UU.) y James Fowler de la Universidad de California en San Diego (EE.UU.) Emplean la paradoja como un método para establecer un sistema de alerta temprana para la detección de brotes de enfermedades contagiosas. Estudiando a los amigos de un grupo de individuos seleccionados al azar, se puede identificar a aquellas personas que están más conectadas con los demás y que, por lo tanto, es más probable que contraigan las enfermedades contagiosas, como la gripe, pronto. El resultado obtenido por los investigadores indicaría que las autoridades sanitarias podrían detectar un brote semanas antes de lo que se consigue con los métodos actualmente en uso.

En un ensayo llevado a cabo el año pasado, Christakis y Fowler monitorizaron la propagación tanto de la gripe estacional como de la H1N1 (vulgo, gripe porcina), entre los estudiantes y sus amigos en la Universidad de Harvard.

Los investigadores seleccionaron un grupo aleatorio de 319 estudiantes y les pidieron a cada uno que nombrase hasta tres amigos. Con estos nombres se creó otro grupo de 425 amigos. Tal y como predice la paradoja de la amistad, los miembros de este segundo grupo eran más populares (eran nombrados más veces por el grupo aleatorio) y más centrales en la red de conexiones entre los estudiantes de Harvard. Los casos de gripe empezaron a registrarse desde el primero de septiembre del 2009 hasta el final de diciembre, identificando a aquellos diagnosticados por los servicios de salud de la universidad y por las respuestas por correo electrónico a una encuesta de salud enviada dos veces por semana.

En conjunto, el 8% de los estudiantes tuvieron un diagnóstico formal de gripe y otro 32% se había autodiagnosticado. No fue una sorpresa encontrar que la tasa de infección alcanzó un pico dos semanas antes en el grupo de los amigos más conectados. Sus contactos sociales estaban de hecho causando que se contagiasen antes.

Los investigadores querían dar un paso más, por lo que analizaron los datos buscando una señal de alerta del brote cuando se comenzaba a propagar. Compararon los diagnósticos entre los dos grupos, día a día, para los 122 días que duró el estudio. Se podía detectar por primera vez una diferencia significativa entre los dos grupos nada menos que 46 días antes de que se alcanzase el pico de visitas al médico en el grupo aleatorio. Para aquellos que se autodiagnosticaron, la diferencia era de 83 días antes del pico en los autodiagnósticos.

Estos resultados son impresionantes. Pero lo son aún más si se comparan con los obtenidos por los métodos en uso por los Centros para la Prevención y Control de Enfermedades (Estados Unidos) que dan la alarma entre 7 y 14 días después del brote. El Google Flu Trends, que monitoriza millones de peticiones de búsqueda al buscador de términos relacionados con la gripe, es mejor que los métodos oficiales pero como mucho es simultáneo con el brote. Si se combina este método con los hallazgos de Christakis y Fowler podría crearse un método mixto en el que las peticiones de búsqueda de individuos muy conectados (populares) se usarían para buscar señales de la gripe o de cualquier otra enfermedad contagiosa; y no sólo para una universidad, sino para una ciudad, región o país.

El método de Christakis y Fowler es extrapolable, en principio, a cualquier contagio que se propague por una red social, sea biológico, psicológico, informativo o de comportamiento. Si empieza a emplearse de forma generalizada, ser popular se cotizaría todavía más.

Referencia:

Nicholas A. Christakis, & James H. Fowler (2010). Social Network Sensors for Early Detection of Contagious Outbreaks Proceedings of the National Academy of Sciences arXiv: 1004.4792v1

lunes, 17 de mayo de 2010

Un método de computación analógico para la fuerza de Casimir.


Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences.

Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados.

La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable.

Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.

En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general.

Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible.

La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes.

Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar.

El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica.

Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.

[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]

Referencia:

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

domingo, 16 de mayo de 2010

Einstein y...Franklin Delano Roosevelt


Poco después de que el mundialmente famoso Albert Einstein emigrase a Estados Unidos en el otoño de 1933, él y su mujer fueron invitados a cenar por el presidente Roosevelt el 24 de enero de 1934 en la Casa Blanca, donde pasaron la noche. Años después, la relación establecida aquella velada animó a Einstein a escribir una carta a Roosevelt que contribuiría a cambiar el curso de la historia.

La invitación inicial a cenar en la Casa Blanca vino tras la insistencia del rabino Stephen Wise. Alarmado por las políticas racistas de Alemania y ante lo que él creía inacción de Roosevelt, Wise usó sus contactos para convencer a un asesor del presidente para que éste recibiera a Albert Einstein, argumentando que, de no hacerlo, sería un desprecio hacia los judíos. La esperanza de Wise es que Einstein pudiera explicarle de primera mano la situación que estaba viviendo su pueblo en Alemania. La invitación fue enviada por la Casa Blanca sólo dos semanas después de la llegada de Einstein; sin embargo esa primera invitación fue, increíblemente, rechazada.

En 1930 se había fundado el Instituto de Estudios Avanzados en Princeton, del que se había hecho cargo su primer director, Abraham Flexner. Contratar a Einstein había sido una maniobra genial (y de suerte) por parte de Flexner, y una que algunas veces el valoró con satisfacción y otras con arrepentimiento. Einstein, el científico más famoso del mundo, le proporcionó al recién fundado Instituto prestigio inmediato, esta era la parte buena para Flexner. Pero Einstein era también el judío vivo más famoso, y esto era malo o, al menos, preocupante para Flexner, él mismo judío. Cuando Albert y Elsa Einstein llegaron al puerto de Nueva York el 17 de octubre de 1933, recibieron una nota de Flexner antes de desembarcar. Decía: “Hay bandas organizadas de nazis irresponsables en este país [...] su seguridad en Estados Unidos depende del silencio y de abstenerse de aparecer en actos públicos”. Flexner había sido advertido por el subsecretario de estado Phillipps de que Einstein debía mantener un perfil bajo, pero Einstein sospechaba que lo que estaba en juego no era tanto su seguridad como la tranquilidad de Flexner.

Flexner abría todo el correo que llegaba al Instituto para Einstein. Fue Flexner el que telefoneó al secretario de prensa de la Casa Blanca para declinar la invitación alegando que el profesor Einstein había venido para investigar, no para dedicarse a la política. Cuando Einstein se enteró, accidentalmente, de lo que había pasado, a la vergüenza que sintió por lo que el presidente de la nación que le acogía podía haber pensado, se unió la furia contra Flexner. Finalmente se decidió a escribir a Eleanor Roosevelt, explicando lo sucedido, y poco después llegaba una segunda invitación.

El encuentro entre los Einstein y los Roosevelt es evidente que fue agradable. Sin embargo, ninguna de las partes comentó demasiado qué había sucedido o de qué se había tratado. Eleanor Roosevelt escribiría a una amiga: “los Einstein llegaron [...] y son únicos, tan alemanes y tan sencillos con muchas sabias y delicadas cualidades alemanas”. Parece ser, por un comentario posterior que habría hecho Elsa, que Roosevelt propuso a Einstein que aceptara una ciudadanía honorífica, tal y como proponían dos miembros del Congreso, pero Einstein habría declinado el trato especial. Einstein sí parece que llegó a conectar a nivel personal con Roosevelt pues, según su amiga Frieda Bucky, habría dicho: “Lamento que Roosevelt sea presidente, de otro modo le visitaría a menudo”.

Si bien este encuentro no tuvo demasiadas consecuencias, el siguiente contacto de Einstein con Roosevelt puso al físico a la vanguardia de la era atómica. Los descubrimientos realizados en 1938 tenían a los físicos alborotados con las posibilidades que podía tener el estudio del uranio. Algunos comentarios de científicos alemanes a sus colegas americanos sobre las nuevas técnicas para romper átomos de uranio y emplear la enorme energía que se liberaría, alarmaban a los que estaban preocupados con la posibilidad de que la Alemania de Hitler consiguiese una ventaja tecnológica de ese calibre, con usos militares tan evidentes. Siendo conocedor de estos nuevos desarrollos y temeroso de la destructividad de Alemania, Einstein firmó el dos de agosto de 1939, un mes antes de la invasión de Polonia, una de las cartas más famosas de la historia [se puede leer aquí]. Escrita en su mayor parte por Leó Szilárd, con la colaboración de Edward Teller y Eugene Wigner, en ella Einstein alertaba a Roosevelt del peligro y lo animaba a actuar primero, proveyendo fondos gubernamentales para la investigación. Si bien la carta no llevó a la acción inmediata, ciertamente fue la primera vez que Roosevelt fue consciente de lo que la nueva física podía significar para el desarrollo armamentístico.

Años después, en 1942, con Estados Unidos en guerra tras el ataque japonés a Pearl Harbour en diciembre de 1941, se puso en marcha el proyecto Manhattan, que terminaría con la construcción y detonación de la primera bomba atómica. Aquella carta fue la única contribución, indirecta, al proyecto por parte de Einstein. Su pacifismo y sus “sentimientos filocomunistas” impidieron que el F.B.I. emitiese la autorización para que se le invitase a participar plenamente. Pero esta es otra historia.