jueves, 28 de febrero de 2013

Un método para la obtención de poliestireno cristalino



Buena parte de mi carrera como químico en la industria ha estado ligada a la aplicación de polímeros sobre superficies metálicas para distintos usos, desde envases alimentarios hasta recubrimientos hidrofílicos en aletas de intercambiadores de calor, pasando por blísters farmacéuticos. Cuando queríamos conseguir propiedades mecánicas importantes, como la capacidad de los polímeros de resistir una fuerte deformación del metal, o químicas, como resistencia a la corrosión o medios ácidos, sabíamos que la clave era estabilizar la estructura tridimensional de los polímeros consiguiendo que las distintas macromoléculas poliméricas creasen enlaces estables entre sí. Es lo que se llama curado, en términos del oficio, o reticulación, poniéndonos un poco más técnicos, ya que se crea una red tridimensional.

El amable lector se preguntará a qué viene esto. Pues viene a que la noticia que comento a continuación es de esas que pasan inadvertidas, de las que poca gente sabe apreciar, y que sin embargo entrañan una dificultad técnica notable y tienen una transcendencia económica a futuro innegable. Espero ser capaz de explicarla como merece, en este caso particular corro el riesgo de emplear demasiada jerga. Vamos a ello.

Un equipo de investigadores, encabezado por Gaetano Distefano, de la Universidad de Milán-Bicocca (Italia), ha creado un material de base polimérica que tiene estructura cristalina. El material consigue su cristalinidad con entrecruzamientos entre cadenas poliméricas. Los resultados se publican en Nature Chemistry.

La estructura de los materiales compuestos por fibras, como son las cadenas de polímeros, tiene un gran impacto en sus propiedades. Un caso conocido es el Kevlar, que consigue su alta tensión de rotura (ideal para chalecos antibalas o velas náuticas de competición) porque los polímeros se alinean creando entre ellos multitud de puentes de hidrógeno. Por esta razón los químicos han (en este caso, hemos) empleado mucho tiempo y esfuerzo en conseguir estructuras tridimensionales estables y regulares de distintos polímeros o, en una palabra, que se aproximasen a una forma cristalina.

Las técnicas para conseguir una estructura tridimensional estable de un haz de fibras varían mucho con el polímero en cuestión. Desde puramente mecánicas, como el “peinado”, en el que las fibras se alinean simplemente frotando la superficie en la que están depositadas [por si alguien conoce los maquinones donde esto se hace, aquí tiene una explicación de por qué tienen tal cantidad de rodillos de paso no motorizados]. Los polímeros pi-conjugados, esos en los que los electrones están compartidos por muchos átomos y sus enlaces, se alinean “químicamente”, empleando moléculas guía [realmente es una acción puramente electrostática en esta fase, pero bueno]. Estos métodos como se puede intuir son muy específicos de cada polímero o mezcla de polímeros, y son simplemente alineaminetos, como conseguir que un montón de espaguetis estén en la misma dirección en una mesa. El alineamiento, siendo una condición necesaria pero no suficiente, por sí solo no garantiza ni resistencia al calor ni a los disolventes.


Lo que este grupo de investigadores ha hecho viene a ser lo siguiente, usando un símil de la edificación: imaginar el producto final, crear un andamio que diese su estructura general, incorporar los anclajes de la estructura, y subir los ladrillos al andamio; después han creado los muros con los ladrillos, los han sujetado con los anclajes cada uno en su sitio y han retirado los andamios, quedando la estructura buscada. El andamio se llama PCP (polímero de coordinación poroso). En esta estructura dada por el PCP Distefano et al. embebieron moléculas de DVTP (2,5-divinil-tereftalato), que actuarían como anclajes, entrecruzándose (formando enlaces con distintas cadenas) con el polímero. Después incorporaron a la estructura los ladrillos, monómeros de etenilbenceno (estireno para los amigos), en los canales paralelos de la PCP. Con todo en su sitio polimerizaron los monómeros, obteniendo poliestireno, a la vez que se entrecruzaba. Finalmente retiraron el andamio disolviendo el PCP con EDTA (ácido etilen-diamino-tetra-acético). Resultado: poliestireno cristalino (no se confunda con poliestireno cristal, que es un grado industrial).

Para saber si se ha logrado el objetivo desde un punto de vista macroscópico tan sólo hay que medir la densidad conseguida y comprobar la resistencia a calor y disolventes. A mejor empaquetamiento, mejor ocupación del espacio, más densidad. El nuevo material tiene una densidad de 1,13 g/cm3, alrededor de un 8% más que el poliestireno normal (el que se emplea en los envases de yogur, por ejemplo) que es de 1,05 g/cm3, buena señal. Además aguanta los disolventes orgánicos habituales y temperaturas de hasta 200 ºC. Espectacular. Eso sí, serán necesarias muestras mayores que las obtenidas para poder determinar las propiedades mecánicas de interés ingenieril.

Tenemos que hacer constar que en las veriones habituales del poliestireno, atáctico y sindiotáctico, se habla siempre de grados de cristalinidad, lo que indica el nivel de ordenamiento. No son cristales reales, aparte de por no estar completamente ordenados microscópicamente, porque macroscópicamente no tienen una temperatura de fusión, sino una temperatura de transición vítrea. Por otra parte la estructura cristalina del poliestireno isotáctico fue determinada por Giulio Natta en 1960.

Este trabajo es un ejemplo magnífico de todo el campo que queda por explorar en el uso de polímeros convencionales desde el punto de vista estructural, materiales, no lo olvidemos, completamente orgánicos.


Esta entrada es una participación de Experientia docet en la XXII Edición del Carnaval de Química que organiza Roskiencia 

Referencia:

Distefano, G., Suzuki, H., Tsujimoto, M., Isoda, S., Bracco, S., Comotti, A., Sozzani, P., Uemura, T., & Kitagawa, S. (2013). Highly ordered alignment of a vinyl polymer by host–guest cross-polymerization Nature Chemistry DOI: 10.1038/nchem.1576

martes, 26 de febrero de 2013

Incompletitud y medida en física cuántica (I): la física superpositiva



¿Qué distingue a la física cuántica de la física clásica o newtoniana de una forma fundamental? Esta pregunta que parece sacada de un examen de bachillerato, no tiene una respuesta tan evidente como pudiese parecer. De hecho, soy de la opinión de que la mayoría de las respuestas estándar, siendo correctas, no expresan adecuadamente lo básico, el germen del conflicto. Esto hace que muchos se aproximen a la física cuántica más como a un libro recetario, que como a un todo bien hilvanado. Veremos las tres respuestas típicas y después iremos a por el nudo gordiano.

La primera respuesta que se suele dar es la que da nombre a la teoría, a saber, la existencia de cuantos de energía, la cuantización. La energía (y más cosas, pero dejémoslo aquí), a diferencia de la física clásica, no es continua, sino que va en paquetes de tamaño determinado, llamados cuantos. ¿Es esto realmente una diferencia?¿Realmente supone por sí misma un problema para la física clásica? ¿Acaso la materia no está cuantizada en forma de átomos (por poner un límite del siglo XIX) o en partículas en general? ¿No consideraron Boltzmann, Maxwell y Gibbs que la naturaleza estaba compuesta por átomos y de esta hipótesis dedujeron ni mas ni menos que las leyes de la termodinámica macroscópica?¿Acaso durante mucho tiempo no se consideró que la luz tenía naturaleza corpuscular, empezando por Gassendi y siguiendo por el propio Newton? El hecho de que la naturaleza sea discreta, por sí mismo, pues, no es una ruptura con la física clásica. Para Planck, su “acto de desesperación” no consistió en introducir la cuantización de la energía, sino el recurrir a la estadística.

La segunda respuesta que se suele esgrimir es la dualidad onda corpúsculo. Obviamente la idea de que un cuerpo tenga una onda asociada es novedosa y no puede decirse que exista en física clásica. Pero tampoco supone un problema mayor para una concepción newtoniana del mundo. De hecho desde que newton publicase su Opticks en 1704 hasta los experimentos de Léon Foucoult en 1850, la luz era un corpúsculo o una onda según conviniese y según a quien preguntases. Esto es, desde un punto de vista pragmático, una situación análoga a la que plantea la hipótesis de de Broglie.

Un tercer argumento es el principio de incertidumbre. Estamos ante una situación parecida a la de la dualidad onda-corpúsculo. El principio de Heisenberg, al igual que la hipótesis de de Broglie, eleva ontológicamente lo que es algo que ya se maneja en la práctica en física clásica. Lo que en física newtoniana es teóricamente alcanzable ahora no se puede alcanzar: establece un límite fundamental en la precisión con la que podemos conocer los valores de pares de variables incompatibles. Para una física acostumbrada a manejarse con incertidumbres en la medida, esto tampoco supone una ruptura tan radical. Es a los filósofos a los que encanta la posibilidad de escapar al determinismo mecanicista.

Siendo estas tres respuestas, cuantización, dualidad e incertidumbre, como decíamos al comienzo, fenómenos que la teoría clásica no puede acomodar fácilmente y por lo tanto serían respuestas correctas a nuestra pregunta de inicio, sin embargo, no supondrían mayor problema para un físico experimental, por ejemplo. Estos tres aspectos, como venimos apuntando, tienen relevancia desde el punto de vista de las implicaciones filosóficas, ontológicas si se quiere, puramente teóricas.

Curiosamente, la distinción fundamental de la mecánica cuántica, lo que la separa de la física clásica, estriba en una característica matemática. Son las propiedades que cumplen las soluciones de las ecuaciones básicas que describen los sistemas físicos objeto de estudio las que diferencian a la física cuántica de la clásica. Esto no sería más que un artificio matemático si las predicciones no cuadrasen tan estupendamente bien con los experimentos. Otra cosa es su interpretación. Vamos a verlo.

Continúa leyendo en el Cuaderno de Cultura Científica

jueves, 21 de febrero de 2013

7 cosas a tener en cuenta sobre la comida y tú



La obsesión por la comida nos invade. Ya sea por su composición (“natural”, sin conservantes, ecológica, con omega-3, sin esto, con aquello), ya por los efectos que provoca en nosotros nuestra relación con ella: sobrepeso, obesidad, anorexia, bulimia. Lo que ocurre, como por otra parte es habitual, es que no somos conscientes de que tenemos unas instrucciones que como humanos traemos de serie y que influyen más de lo que estamos dispuestos a reconocer en nuestros actos.

A continuación encontrarás 7 afirmaciones que quizá te sorprendan, pero cuyo conocimiento podría facilitarte tu relación futura con la comida. Todas están comprobados científicamente de forma reiterada. Además están todos interrelacionados, por lo que lo mejor es considerarlos en conjunto. Iremos de lo más fisiológico a lo más social.

Una advertencia tan sólo, si me lo permites: si piensas que estás delgado, quizás porque así lo indique tu índice de masa corporal, y que lo que sigue no te atañe más allá de ser una curiosidad, quizás deberías reconsiderarlo leyendo esto y esto.




1 No sabes cuando estás lleno

Solemos creer, inocentes, que la cantidad de comida que ingerimos es el resultado del hambre que tenemos. Esto solo es uno de los factores, pero hay más: el tamaño del plato, el tamaño de la cuchara de servir, el de los paquetes, etc.

Nuestros estómagos nos dan una indicación grosera de lo que hemos comido. Somos unos mamíferos visuales y nos fiamos de nuestra visión y ésta es fácilmente engañada.

Comerás menos y te verás casi igual de saciado si comes en platos y consumes paquetes más pequeños.




2 Grasa ≠ malo

El bombardeo publicitario ha instalado en nuestras mentes la asociación alto contenido en grasa, perjudicial para la salud. Y esto no es estrictamente cierto. Para empezar no todas las grasas son iguales. Pero no es esto lo que nos interesa ahora.

Lo que importa es la jugarreta mental que esto nos juega: evitamos los alimentos con alto contenido en grasa en dosis pequeñas (por ejemplo, una tarrinita de mantequilla) y no ponemos límite en la cantidad que ingerimos de otros por el simple hecho de contener poca o ninguna grasa (por ejemplo, refrescos azucarados). El resultado es que nos podemos estar privando de nutrientes esenciales y, a la vez, paradójicamente, consumiendo muchas más calorías que después será nuestro cuerpo el que transforme en grasa.

Si eres de los que miran las calorías no te contentes con el valor por 100 gramos que aparece en tablas o en el envase, mejor multiplica este valor por la ración efectiva que vayas a ingerir. Hazlo un par de veces, verás que sorpresa.




3 Como es sano no puedes comer más

Esto es una variante del punto anterior. Cuando pensamos que un alimento es sano en general comemos más cantidad que cuando aparece etiquetado con algo que consideramos no sano. “Esto es bueno para el cerebro, come, niño, come” solía repetir mi pobre abuela.

Las comidas “sanas” son malas en el sentido de que favorecen que el hominino de la sabana que llevamos dentro tienda a hartarse.




4 Come conscientemente

Comer es algo tan rutinario que pasa habitualmente a nuestro departamento de automatismos, como el conducir para el conductor experimentado. Mientras nuestras mentes vagan en solitario o con la ayuda de la televisión, el ordenador o la película, nuestras manos no descansan de dar portes a la boca, cada vez más rápido.

El hecho cierto es que cuando uno está distraído come más y disfruta menos de lo que come. Por eso una de las formas de combatir los desórdenes alimentarios y la obesidad es el comer conscientemente. Esto consiste en tomar porciones/bocados pequeños y prestar más atención a lo que se está comiendo. De esta forma la gente no sólo come menos sino que lo disfruta más.




5 Tu estado de ánimo influye en cómo y qué comes

Se han realizado experimentos que probarían que cuando estamos de mal humor es más probable que comamos alimentos más ricos en azúcar y grasas. Las emociones negativas también nos harían preferir un tentempié antes que una comida en condiciones y comer menos verdura.

Pero no pensemos que el buen humor nos lleva por el buen camino. Cuando estamos de buen humor solemos comer más, lo que ocurre en este caso es que no se discrimina tanto con el tipo de alimento que se ingiere.




6 Amigos obesos = obeso tú

Hablamos aquí de una correlación, no de una causalidad. Si un grupo de amigos es obeso, entonces la probabilidad de que el miembro del grupo que aún no conoces también sea obeso aumenta casi un 60% comparada con la de que lo sea si el grupo tiene un peso medio normal.

Dicho de otra manera: nos vemos enormemente influenciados por los hábitos alimenticios de los que nos rodean. Los estudios muestran que comemos más cuando los que nos rodean comen más; y las mujeres son especialmente susceptibles de ello.

De hecho nos influyen los demás aunque no estén. Son las denominadas “normas sociales”. ¿Nunca te ha pasado que yendo con un amigo a ti mujer te han puesto el café con leche cuando tú habías pedido el solo que le han puesto a él? Este tipo de normas nos afectan aún estando solos: los varones comen cosas grandes, las mujeres cosas pequeñas, los varones chuletones, las mujeres ensalada.


7 Los pequeños cambios ganan a la mejor y más estrambótica de las dietas

Si quieres perder peso, olvídate de dietas extravagantes, sean las que sean. Las dietas suponen en general grandes cambios en los hábitos, y esto es lo más difícil que puedes intentar hacer. Si, además tenemos en cuenta el componente social de la ingesta de comida, ello requiere un esfuerzo estupendo. Y si no eres de hacer deporte y comienzas a hacerlo, además puedes hincharte de comer sano después, con lo que el saldo calórico de esa actividad que tanto te cuesta es positivo en vez de negativo. Al final tenemos el efecto yo-yo con una venganza: recuperas lo poco que has perdido y más.

Intenta hacer cambios pequeños que sean sostenibles a largo plazo, lo que en este contexto significa el resto de tu vida. Lo primero es conocerte mejor a ti mismo y como funciona tu cuerpo. Lo segundo es que en estudios recientes se ha comprobado la efectividad de algunos pequeños cambios; estos son algunos de los que funcionaron (un porcentaje significativo de las personas que los adoptaron perdieron peso a pesar de no hacer dieta): soltar los cubiertos entre bocado y bocado, usar platos más pequeños, beber agua con todas las comidas, aperitivos y tentempiés, no comer directamente de los paquetes (cereales en un cuenco, galletas en un plato, etc.).

martes, 19 de febrero de 2013

Leyes, teorías y modelos (y III): ¿Existen los paradigmas?



Se está convirtiendo en un lugar común en el periodismo científico, e incluso entre los mismos científicos, hablar de paradigmas y, sobre todo, de su cambio cada vez que parece que se realiza un descubrimiento (presuntamente) importante. Pero, ¿existen los paradigmas? Y, ¿somos conscientes de los que decimos cuando hablamos de paradigmas en ciencia?

En los años ochenta del siglo pasado la por entonces primera ministra británica Margaret Thatcher se negaba, no sólo a emplear ella, sino también a aceptar en el discurso de otros como expresiones válidas los términos “clase social” y “lucha de clases”. Para ella existía un sólo grupo social, la sociedad británica, e individuos dentro de ella; hablar de clases era para Thatcher aceptar de alguna manera la visión marxista de la sociedad y, por tanto, se abría la puerta a otros planteamientos de esta filosofía. Algo de razón tenía Thatcher: si aceptas un lenguaje, una jerga si se quiere, estás aceptando una visión del mundo. No habría que ir muy lejos para encontrar ejemplos en política, pero baste citar para el lector interesado “LTI, la lengua del tercer reich” de Victor Kemplerer.

Por ello hablar de paradigmas sería aceptar, en cierta medida, primero su existencia y, segundo, la filosofía de Thomas Kuhn. Y, probablemente, para sorpresa de muchos científicos, y hasta algún periodista, no estarían de acuerdo con ella si conociesen algunas de sus implicaciones. Veámoslo muy sucintamente.

La fe de los científicos

Para Kuhn, como para Paul Feyerabend, la observación está “cargada de teoría”, lo que quiere decir que las observaciones que decidimos realizar y la importancia que les atribuimos vienen determinadas por nuestras teorías previas. Esto puede parecer inocente e inocuo, pero de aquí tanto Kuhn como Feyerabend infieren que las distintas teorías científicas son “inconmensurables”, es decir, que no existe un conjunto de juicios observacionales neutro con el que distinguir la mayor o menor “validez” de las teorías.

Como corolario, Kuhn y Feyerabend encuentran que no es posible alcanzar la verdad objetiva a nivel de observables, no digamos ya a nivel de no observables.

Con lo anterior en mente, Kuhn argumenta que la historia de la ciencia muestra una sucesión de “paradigmas”, conjuntos de supuestos y ejemplos (en el sentido de modelos) que condicionan la manera en la que los científicos solucionan los problemas y comprenden los datos y que sólo cambian en las llamadas “revoluciones científicas”, cuando los científicos cambian una fe teórica por otra.

La elección de la palabra “fe” no es casual, porque dada la inconmensurabilidad de las teorías, se deduce, y Kuhn lo hace, que no existe razón lógica estricta para el cambio de paradigma. Los argumentos en favor de un paradigma u otro serían los mismos en última instancia que emplean los partidarios de las opciones políticas: razonamientos circulares; además no es posible recurrir al experimento para decidir entre ellos porque qué experimentos se hacen y qué validez se les atribuye dependen de la teoría que se defienda. Existe una cita de Planck que expresa esta idea expeditivamente: “Una verdad científica no triunfa convenciendo a sus opositores y haciéndoles ver la luz, sino más bien porque sus opositores terminan muriendo y una nueva generación crece familiarizada con ella”.

Estamos, efectivamente, ante un relativismo epistemológico, en el que, por si fuera poco, los “paradigmas” non son falsables en el sentido de Popper. Ni que decir tiene que Kuhn y Popper chocan frontalmente, a pesar de que en un mismo texto, en especial las noticias de física cuántica, se pueda hablar a la vez y sin rubor de “falsabilidad” y “paradigmas”. Curiosamente, ambos autores adoptan una epistemología evolutiva pero con resultados muy dispares.

Sigue leyendo en el Cuaderno de Cultura Científica

jueves, 14 de febrero de 2013

Don Juan en Marte: argumentos para la existencia de agua líquida


Cuando Don Roe y John Hickey sobrevolaban con su helicóptero el valle Wright de la Antártida en 1961 a una temperatura exterior de 30 grados bajo cero, no pudieron creer lo que vieron: un lago de agua líquida. El lago Don Juan (llamado así en honor a sus descubridores) es el charco (porque es poco más que un charco) más increíble del planeta Tierra y podría dar pistas de cómo podría haber agua líquida en lugares tan fríos y secos como Marte.

El secreto del lago Don Juan para mantenerse líquido es su alta salinidad, mayor que la de cualquier otra acumulación natural de agua de la Tierra. Sin embargo, el origen de esta salinidad era un misterio. Y decimos era porque un estudio encabezado por James Dickson, de la Universidad de Brown (EE.UU.), y publicado en Scientific Reports revela de donde saca el Don Juan sus sales.

Los investigadores usaron time-lapses (16.000 fotografías en 2 meses) y datos meteorológicos para determinar que el origen del agua no era subterráneo, sino que provenía de la delicuescencia de las sales presentes en el suelo, es decir, las sales no son aportadas al lago por una corriente de agua salada, sino que las sales están presentes en el suelo y toman agua de la atmósfera disolviéndose. También se detectó otro pequeño aporte de agua proveniente de la nieve derretida. Todo junto forma un charco capaz de mantenerse líquido en uno de los lugares más fríos y secos de la Tierra, basándose en el efecto de reducción de la temperatura de congelación que supone la presencia de sal en el agua, tan conocido en las zonas donde nieva habitualmente.


Lo que las imágenes muestran es que los niveles de agua en el charco se incrementan coincidiendo con los picos de temperatura diarios, lo que sugiere que el agua viene en parte de la nieve calentada justo lo suficiente a mediodía para derretirse. Pero el aporte de agua fresca no explica el alto contenido salino, que es ocho veces mayor que el del mar Muerto.

La segunda fuente de aportes al lago viene de un canal de sedimento suelto localizado al oeste del charco. Investigaciones anteriores había encontrado que ese sedimento era rico en cloruro cálcico. Para comprobar que efectivamente esta era la fuente los investigadores colocaron una segunda cámara para monitorizar el canal y sincronizaron los datos, al igual que los de la primera cámara, con los datos de las estaciones meteorológicas cercanas.


Las imágenes muestran marcas oscuras de humedad que se forman en el suelo cada vez que aumentaba la humedad relativa del aire. Existen marcas de agua similares en un precipicio al norte del charco. Lo que forma estas marcas es las sales del suelo absorbiendo la humedad disponible en el aire, lo que antes hemos llamado delicuescencia. Estas sales cargadas de humedad atraviesan el suelo suelto hasta llegar a la capa de permafrost inferior. Y ahí esperan hasta que un aumento de temperatura suficiente les permitan usar nieve derretida para llegar al lago a través del canal.

Estos resultados contradicen la hipótesis predominante desde el descubrimiento del lago en 1961 que afirmaba que las salmueras tenían un origen subterráneo.

Los aficionados a la exploración marciana ya habrán asociado las marcas de agua del lago Don Juan a algunos hallazgos hechos en Marte. En concreto a marcas oscuras que parecen fluir ladera abajo en algunos cortados y precipicios. Suelen ocurrir en los mismos lugares en las mismas épocas del año marciano. Se ha especulado con que estas marcas podrían ser algún tipo de salmuera fluyendo, la mejor prueba disponible de la existencia de agua líquida en el Marte actual.

Los resultados de la investigación en el lago Don Juan refuerzan esta hipótesis. Se ha visto escarcha en Marte, lo que implica que el aire contiene al menos algo de humedad. También, como son muy conscientes los lectores habituales de Experientia docet, existen sales cloradas en superficie que tendrían una capacidad delicuescente similar a la observada en la Antártida. Finalmente, el proceso no necesita agua del subsuelo, lo que elimina este requerimiento en Marte.

Es más plausible, por tanto, que exista agua líquida en Marte en la actualidad y que la hubiese en el pasado.


Esta entrada es una participación de Experientia docet en la XXII Edición del Carnaval de Química que organiza Roskiencia.  


Referencia:

Dickson, J., Head, J., Levy, J., & Marchant, D. (2013). Don Juan Pond, Antarctica: Near-surface CaCl2-brine feeding Earth's most saline lake and implications for Mars Scientific Reports, 3 DOI: 10.1038/srep01166

martes, 12 de febrero de 2013

Leyes, teorías y modelos (II): Prescripción y descripción en ciencia.




Para ayudarnos en nuestra búsqueda de una noción clara de lo que es una teoría científica, consideremos por un momento dos conocidas y reconocidas teorías científicas, una del campo de la física y otra del de la biología, la teoría de la relatividad general de Einstein (TRGE) y la teoría de la evolución de Darwin (TED). Quizás si conseguimos encontrar una definición en la que ambas encuentren acomodo estemos más cerca de entender lo que es una teoría.

Siguiendo el espíritu, que no la letra, de lo que se hablaba en la entrada de Library of Alexandria (LoA), podríamos decir que una teoría es un intento de reunir de forma sistemática el conocimiento que alguien tiene sobre un aspecto concreto del mundo de la experiencia, lo que incluye a las leyes físicas de las que hablábamos en nuestra anotación anterior. La referencia al mundo de la experiencia es necesaria para distinguir una teoría científica de, por ejemplo, una conjetura matemática: una teoría científica se verá confirmada o rebatida por observaciones y experimentos, una conjetura matemática se verá probada matemáticamente o rebatida de la misma forma o con un contraejemplo.

Las teorías se construyen con un fin en mente del que se espera obtener dos tipos de rendimientos. El fin no es otro que la comprensión del fenómeno, de ese aspecto del universo objeto de estudio. Esta comprensión tendrá como frutos la capacidad de explicar y la capacidad de predecir. En todo caso en forma de “comos”, ya que los “porques” de la ciencia siempre son causales, no metafísicos.

Desde un punto de vista clásico, tan clásico que ya está presente en los griegos, y que probablemente sea el que muchos tienen en mente al hablar del método científico, incluido el autor de LoA, las teorías serían sistemas hipotético-deductivos, es decir, un conjunto de leyes agrupadas por el hecho de que a partir de unos pocos axiomas y la hipótesis generadora de la teoría, todo lo demás puede demostrarse que sigue como consecuencia lógica.

De esta forma la capacidad de explicar es una cuestión de mostrar cómo ocurren las cosas dadas las leyes recogidas en la teoría, y la de predecir es de mostrar cómo ocurrirán las cosas de acuerdo con las leyes de la teoría. Es conocido cómo las teorías de éxito son capaces de hacer predicciones, en algunos casos espectaculares, que años después se demuestran por el experimento y la observación. Predicciones famosas son la de la existencia de elementos químicos desconocidos con propiedades químicas definidas, que hizo Mendeleev cuando presentó su teoría de la periodicidad, o la desviación de la luz de unaestrella por la deformación del espaciotiempo que producía la masadel Sol, en el caso de la TGRE.

Si nos fijamos, esta aproximación clásica al concepto de teoría deja fuera, ni más ni menos, que a la TED. Y es que, si bien la TED tiene una magnífica capacidad explicativa, su capacidad predictiva es escasa. Por lo tanto, sabiendo que para la ciencia, efectivamente, la TED es una teoría archicomprobada, Richard Dawkins suele afirmar que es un hecho (más sobre esto al final), se nos abre la posibilidad, en el mejor espíritu científico, de reformar nuestra visión de las teorías para que se ajuste a cómo se hace ciencia de verdad. Aquí es donde entra el concepto de modelo.

Sigue leyendo en el Cuaderno de Cultura Científica.

jueves, 7 de febrero de 2013

Químicos Modernos: Alfred Werner, la pasión por el trabajo



Alfred Werner nació en 1866 en uno de esos lugares marcados por la guerra en la vieja Europa, una de esas ciudades en la frontera entre imperios que cambiaba de manos según soplase el viento. Mulhouse tenía tendencia a ser francesa, la mayoría de sus habitantes se sentían franceses, a pesar de que sus apellidos eran una mezcolanza de prusianos y galos. Siendo Alfred niño, la guerra franco-prusiana de 1870 hizo que la ciudad cambiase de nuevo de manos, siendo anexada al recién formado Reich Alemán diseñado por Otto von Bismarck para mayor gloria del káiser Wilhelm.

Muchos ciudadanos con lazos franceses abandonaron la ciudad, no así los padres de Alfred, que prefirieron quedarse y resistir, hablando francés en casa aunque estuviese expresamente prohibido. Ya adulto, Alfred recordaría cómo disparaba su fusil de juguete contra los soldados alemanes y su mesa de despacho en Zúrich estaba presidida por un trozo de bomba que recogió cerca de su casa siendo niño.

Alfred no fue precisamente un alumno ejemplar y, como precaución, solía llevar trozos de cartón dentro de sus pantalones con la idea de aliviar el castigo físico que suponía saltarse clases. Los biógrafos de Werner hablan de rebeldía frente a la extrema rigidez del sistema de enseñanza alemán, la misma que años después mostraría Einstein. Sin embargo, Alfred era muy experimental a la par que teórico: sus escapadas las empleaba en hacer experimentos químicos detrás de un granero cercano y está documentada al menos una explosión en su habitación.

Entre 1885 y 1886 Alfred tuvo que hacer el servicio militar en Karlsruhe, donde aprovechó para asistir a las conferencias que Engler daba en el Politécnico local. En 1886 toma la decisión de alejarse de conflictos y se matricula en el Politécnico de Zúrich. En 1889 de diploma en química técnica y, a pesar de suspender varios exámenes de matemáticas en su primer intento, consigue su doctorado, tras pasar casi dos años en París, en 1892 con una tesis sobre la disposición espacial de moléculas que contienen nitrógeno, con Arthur Hanztsch como director y Marcellin Berthelot como codirector. Al igual que Einstein, si bien realizó su trabajo en el Politécnico el doctorado se lo otorgó la Universidad de Zúrich.

Los años 1892 y 1893 fueron de subsistencia para Alfred, trabajando como privat dozent, profesor sin sueldo (lo que sus alumnos le pagasen), en la Universidad de Zúrich. En 1893 se convirtió e profesor asociado de la Universidad con un modesto salario, sucediendo a Victor Merz como profesor de química orgánica. En 1895 adquiriría la nacionalidad suiza y, a pesar de tener ofertas de Viena, Basilea o Wurzburg, decide quedarse en la Universidad de Zúrich aceptando la plaza de catedrático con sólo 29 años. Pero, ¿qué había hecho Alfred en este tiempo para escalar así de rápido?

Alfred realizó su primera investigación química independiente con 18 años y su interés siempre había estado en la frontera entre la química orgánica y la inorgánica, alrededor del problema de la valencia y la estructura de los compuestos químicos. Un par de años después de su doctorado, obsesionado como estaba con el problema, cuenta la leyenda que una noche se despertó sobresaltado a las dos de la madrugada, saltó de la cama y se puso a escribir. A las cinco había terminado “Contribución a la constitución de los compuestos inorgánicos”, el artículo que sentaba las bases de la teoría actualmente aceptada sobre los compuestos de coordinación.

Alfred proponía flexibilizar las ideas de Kekulé, de una valencia rígida en una dirección, a una esfera de fuerza con el centro en el átomo. Sugería la existencia de un número de coordinación, que sería el número de ligandos que un determinado átomo metálico buscaría adquirir. Estas ideas eran controvertidas pero lo suficientemente interesantes como para asegurarle un puesto en la universidad.

Con el futuro asegurado, se dejó barba y bigote para intentar conseguir un poco de respeto por parte de los alumnos y colegas, se casó con una chica suiza y se dispuso a fundar una familia y a probar su teoría. La familia estuvo completa 8 años después. Probar la teoría le costaría 20 años de trabajo incansable.

La rutina era siempre la misma: proponía una estructura para un compuesto y predecía sus propiedades a partir de ella. Después una laboriosísima serie de síntesis muy meticulosas hasta conseguir el compuesto. Finalmente caracterizar el compuesto, asegurarse de que era el que se quería obtener y comprobar que sus propiedades correspondían a las predichas. Por ejemplo, proponía que los octaedros tenían átomos en posiciones fijas alrededor de un centro, lo que significaba que tenían quiralidad y, por tanto, podían rotar la luz polarizada. Si se encontraban los compuestos mediante síntesis, su actividad óptica vendría a confirmar las ideas de Alfred.

A diferencia de los compuestos que usó Pasteur, las moléculas ópticamente activas de Alfred no formaban cristales que se pudiesen separar con pinzas. Empleó 18 años en perfeccionar el método para conseguirlo con la ayuda inestimable de su alumno de doctorado Victor King.

Pero siempre hay críticos, y eso no es necesariamente malo. Se pensaba que la quiralidad era algo propio de los átomos de carbono y, como en los compuestos de Alfred había carbono, sugerían que la actividad óptica era consecuencia de la presencia de éstos. En 1914, un año después de recibir el Nobel por sus logros, con la ayuda de otra estudiante de doctorado, Sophie Matissen, Alfred consiguió preparar un compuesto ópticamente activo en el que sólo había nitrógeno, hidrógeno y oxígeno, despojando al carbono de sus derechos exclusivos en lo que a quiralidad se refiere.

Werner, maestro

Todos los avances químicos de Alfred Werner están disponibles en múltiples recursos en la red (por ejemplo). Sin embargo, en pocos lugares encontraréis su otra gran contribución a la ciencia. Su labor como enseñante y director de personas, en lo que fue un avanzado a su tiempo.

Alfred era un orador magnífico y profesor vocacional. El aula en el que daba clases Alfred solía contener de forma rutinaria del orden del doble de personas de las que se suponía que era su capacidad: se sentaban en los pasillos, se aglomeraban alrededor del banco de demostraciones. En verano había desmayos y los rectores de la institución mostraban su preocupación por los riesgos de incendio o explosión. Un chascarrillo de la época era “¿cuándo ocupa un estudiante de química el volumen mínimo? En una clase de Nunwiegeht's”. Ni que decir tiene que Nunwiegeht's era uno de los motes de Alfred, por su costumbre de saludar con un ¿cómo te va?.

Alfred dirigió más de 200 tesis doctorales y, siendo la Universidad de Zúrich pionera en admitir mujeres para el doctorado, él fue pionero en admitirlas en ciencia, aplicando una meritocracia estricta. Buena parte de sus más 200 tesis dirigidas fueron escritas por mujeres. No es de extrañar que personas de toda Europa y Estados Unidos fuesen a Zúrich a estudiar con él.

El laboratorio de Alfred en Zúrich era extraoficialmente conocido como “las catacumbas”, celdas semisubterráneas donde siempre era necesaria la iluminación artificial. Según una revista humorística de la universidad, una muestra del aire de las catacumbas contenía de forma típica “un 50% de ácidos evaporados, 30% de olores nauseabundos de preparados, 10% de humo de cigarrillo, 5% de alcohol y 5% de gas de iluminación mal quemado, lo suficiente para enviar al más resistente de los individuos al gran más allá”. La universidad, consciente de la necesidad de un nuevo edificio para albergar los laboratorios, lo acabó concediendo, con lo que Alfred trabajó incansablemente en su diseño y construcción mientras seguía dirigiendo elementos fundamentales de su investigación. Alfred empezó a dormir muchos días en su despacho de la universidad y a buscar en el alcohol una forma rápida de relajarse.

El precio que Alfred pagó fue muy alto. El estrés, el exceso de trabajo, su consumo excesivo de tabaco y alcohol le llevaron al colapso nervioso. No mucho después de recibir su nuevo edificio fue obligado a dimitir.

Alfred Werner murió en un hospital psiquiátrico de Zúrich poco después de cumplir los 53 años.

Esta entrada es una participación de Experientia docet en la XXII Edición del Carnaval de Química que organiza Roskiencia.

martes, 5 de febrero de 2013

Leyes, teorías y modelos (I): La definición de ley física



El concepto de ley natural, ley de la naturaleza o ley o principio físico es esquivo y escurridizo. Así, por ejemplo, hay quien se refiere a la teoría de la gravitación de Newton como la “ley de la gravitación universal”, cuando ni es ley, ni es universal. Por otra parte a las leyes de la termodinámica hay veces que se las llama principios y hay principios, como el de exclusión de Pauli o el de incertidumbre de Heisenberg, a los que no se les llama leyes, siéndolo. Si a esto unimos la polisemia de términos de uso habitual en ciencia como teoría o hipótesis, es comprensible que reine cierta confusión sobre su uso.

Por otra parte la caracterización de lo que es una ley física es un campo de intensa actividad en filosofía de la ciencia con importantes implicaciones epistemológicas y metafísicas. Los expertos en el tema sabrán excusar que hoy dejemos aparte la teoría de la causalidad de Hume, a pesar de su interés, e intentemos ser un poco pragmáticos, aunque cerremos con filosofías.

Tomemos, de entrada, la definición de ley “científica” [sic.] que el pasado 30 de enero aparecía en el blog Library of Alexandria y que provocó cierto intercambio de pareceres en Twitter: Una afirmación que se basa en una observación experimental repetida que describe algún aspecto de un fenómeno natural. […] las leyes suelen expresarse usando matemáticas. Esta definición (en adelante, DLoA) se daba con la intención de ayudar a los lectores/comunicadores a hablar con propiedad cuando se referían a la ciencia. En lo que sigue mostraremos brevemente que esta definición es manifiestamente insuficiente y daremos cinco criterios para distinguir una ley física de un mero accidente estadístico. Dejaremos para una anotación posterior la discusión sobre qué es una teoría científica.

La lluvia es un fenómeno natural. Su localización geográfica es un aspecto de este fenómeno. Pues bien, yo he comprobado experimentalmente en repetidas ocasiones que cada vez que voy a Bilbao, llueve. Según, la DLoA, el que “si César está en Bilbao entonces llueve en Bilbao” es una ley física. El lector pensará que esto es absurdo, que esto no es una ley de la naturaleza ni nada parecido. Y, sin embargo, cumple con la DLoA incluida la coda de ser expresable matemáticamente, ya que, dada su estructura lógica (si A entonces B), es trivial en teoría de conjuntos.

¿Qué falla entonces en esa definición? O, dicho de otra manera, ¿qué es una ley de la naturaleza? ¿qué diferencia la segunda ley del movimiento de Newton, por ejemplo, de la afirmación de que cuando yo estoy en Bilbao, llueve?

Sigue leyendo en el Cuaderno de Cultura Científica

viernes, 1 de febrero de 2013

Es hielo abrasador, es fuego helado




Es hielo abrasador, es fuego helado,
es herida, que duele y no se siente,
es un soñado bien, un mal presente,
es un breve descanso muy cansado.

Es un descuido, que nos da cuidado,
un cobarde, con nombre de valiente,
un andar solitario entre la gente,
un amar solamente ser amado.

Es una libertad encarcelada,
que dura hasta el postrero paroxismo,
enfermedad que crece si es curada.

Éste es el niño Amor, éste es tu abismo:
mirad cuál amistad tendrá con nada,
el que en todo es contrario de sí mismo.



Este texto es un soneto de Francisco de Quevedo. En lo que solemos llamar “cultura” un comentario del mismo podría ser algo tal que así. Habrá quien, leyendo esto, alabe la capacidad analítica del comentarista y su conocimiento de la teoría literaria. Sin embargo, la cultura científica aporta otra dimensión al poema que no le resta un ápice de su belleza formal y sí pone en valor la agudeza de su autor. Algo que hoy día lamentablemente sólo es valorado por unos pocos. En lo que sigue vamos a intentar explicar en qué consiste esa otra dimensión.

Explicando el enamoramiento

Cupido, el niño arquero y enredante al que el poema se refiere como niño Amor, se supone que dispara flechas que hacen que la gente se enamore; pero hay poca evidencia científica de que esto sea así. Platón, en su línea, proponía una explicación muy bonita sobre la pérdida de la “otra mitad” que todavía atormenta a muchos adolescentes, y a otros que no lo son tanto, en forma de media naranja ideal; pero este argumento no pasa la revisión por pares. Otra posibilidad es recurrir a pociones al estilo de Tristán e Isolda, pero que nadie espere más resultados de este remedio que de los adivinos de la tele. Hasta aquí, las letras.

El hecho cierto es que el enamoramiento y sus síntomas, que Quevedo describe magistralmente, existen. Los antropólogos han llegado a la conclusión de que es una constante universal (o casi, siempre hay algo por comprobar): no existe cultura humana conocida en el planeta que no sepa de primera mano lo que es el enamoramiento.

Entonces, si es universal, debe existir una base biológica para él. En otras palabras, no puede ser simplemente una tradición cultural como el fútbol o los tatuajes. Habrá que echar un vistazo pues, sin ánimo de ser exhaustivos, a la acción de genes, neuronas y hormonas si queremos empezar a comprender el síndrome de enajenación mental transitoria al que se refiere Quevedo y que llamamos enamoramiento.

Casanovas y Marcillas

En este punto, y antes de seguir adelante, conviene dejar claro un aspecto importante. En lo que sigue se habla de apareamiento y de enamoramiento indistintamente, porque el enamoramiento no es más que la vestidura con la disfrazamos el apareamiento. Como apuntábamos más arriba, el enamoramiento es una alteración mental (una enajenación) que dura un tiempo (transitoria) que idealiza al otro, rebaja el riesgo percibido y favorece, en última instancia, la procreación.

Todos conocemos especies en las que las parejas se forman para toda la vida de los individuos y otras en las que la promiscuidad es la regla. Los humanos oscilamos entre el “amor cortés” (platónico) de Dante por Beatriz (en la imagen) y todo lo contrario. Esta “elección”, ¿es algo espiritual, platónico, trascendente o es biológico, genético?

Naturalmente, si hay un fenómeno biológico que se encuentra entre la inmensa mayoría de los individuos de una especie lo que cabe pensar es que esté predeterminado de una forma o de otra en los genes. El problema con el enamoramiento es que es un fenómeno complejo, muy probablemente controlado por interacciones entre muchos productos genéticos distintos. Esto dificulta mucho su estudio como ocurre con el alzhéimer o las dolencias cardíacas. Si, además, por razones éticas muy comprensibles, no se pueden hacer experimentos con humanos, la cosa se complica.

Gracias a la teoría de la evolución, sabemos que estamos relacionados genéticamente con muchas especies, con la que compartimos mucho más que un antepasado común. Esto permite que los estudios genéticos en animales, si bien no pueden responder a cuestiones humanas complicadas, sí den respuesta a preguntas más simples.

Así, por ejemplo, existen dos especies relacionadas de ratones de campo que viven en Norteamérica: una es monógama y vive en la pradera (Microtus ochrogaster) y la otra es promiscua y vive en los montes (Microtus montanus). Un estudio descubrió un gen en los de la pradera que estaba sospechosamente ausente entre los montaraces. Los investigadores insertaron el gen en cuestión en los machos de las especie de montaña y esta simple manipulación convirtió a los que tenían que haber sido Giacomo Casanova en DiegoMarcilla. Un indicio de que lo que pensamos que es elección propia de esa persona ideal(izada), esto es, la monogamia total o la poligamia como monogamia en serie, no sería más que predisposición genética.

Loco de amor

Pero si el enamoramiento es, como decimos, una enajenación mental transitoria, toda la influencia genética tendrá su correlato en el encéfalo. Veamos qué encontramos.

Un grupo de investigadores se dispuso a descubrir cuáles eran las manifestaciones neurológicas de los primeros estadios del amor romántico. Básicamente, lo que querían descubrir era si el enamoramiento es una emoción fundamental como el miedo o si está producida por bucles de retroalimentación del sistema de recompensa del encéfalo de la misma forma que funciona la adicción a la cocaína.

Su conclusión es que hay una serie de regiones encefálicas que parecen estar involucradas en los sentimientos románticos. Específicamente registraron la activación del mesencéfalo ventral derecho, alrededor del llamado área tegmental ventral y el cuerpo dorsal y la cola del núcleo caudado. Todas estas regiones no están relacionadas con instintos y emociones primitivos como el miedo, sino que están ligadas al sistema de recompensa que hace que nos volvamos adictos a las drogas.

Cuando ponemos estos resultados en contexto se llega a la conclusión de que el enamoramiento es fundamentalmente un sistema de recompensa, que conduce a varias emociones, más que una emoción específica. Es muy característico que no se pueda ligar una expresión facial de forma inequívoca a estar enamorado. Además las primeras etapas del enamoramiento, cuando éste es más intenso, difieren tanto de la atracción sexual como del desarrollo del afecto característicos de las fases posteriores de la relación, que activan áreas diferentes del encéfalo.

¿Y qué pasa si la cosa sale mal?¿Y si no eres correspondido o te abandonan?

Cuando se mira una foto de alguien que te acaba de abandonar suceden muchas cosas en el encéfalo, incluyendo la activación de regiones habitualmente asociadas al dolor físico, a comportamientos compulsivos-obsesivos, al control de la ira y áreas que se activan cuando elucubramos sobre lo que otro está pensando. No sólo eso, en vez de desactivarse las acciones del amor romántico, parece como si se activaran aún más: el enamoramiento se exacerba por el rechazo.

Moléculas enamoradas

Muchas veces se suele hablar de que el enamoramiento es química. Efectivamente, muchas de los circuitos involucrados en el amor romántico incluyen a una hormona que también es un neurotransmisor, la dopamina. Pero este no es el único compuesto involucrado en el enamoramiento.

Al igual que los pacientes con comportamientos obsesivos-compulsivos los enamorados presentan unos niveles anormalmente bajos de serotonina en sangre, lo que se correlaciona bastante bien con la obsesión con el objeto del enamoramiento.

También se han detectado cambios en los niveles de cortisol, hormona estimulante del folículo y testosterona. Algunos de estos cambios dependen del sexo del sujeto. Por ejemplo, la testosterona aumenta en las mujeres enamoradas y disminuye en los varones. Pero lo mejor viene cuando los enamorados que se han jurado amor eterno vuelven a medir sus niveles hormonales 12 meses después, aunque la relación se mantenga: las diferencias hormonales han desparecido completamente. Esto es, desde el punto de vista endocrino, una pareja que sobrevive a la fase de enamoramiento (recordemos que es una enajenación mental transitoria) lo hace en base a fundamentos bioquímicos diferentes: después de doce meses la química desaparece, sólo para ser sustituida por otra, en la que por ejemplo, interviene la oxitocina.

Quevedo etólogo

Vemos pues que el elegir a un sólo objeto de nuestra obsesión amorosa tiene una base genética, neurológica y fundamentalmente química y que todo ello se manifiesta en un comportamiento similar al del adicto a una droga.

Prueba ahora a leer el soneto del inicio pensando que está dedicado a la heroína. Apreciarás mucho mejor el genio de Quevedo y verás, quizás, que un comentario literario estándar puede quedarse muy corto.