jueves, 30 de mayo de 2013

Muera la inteligencia, la consciencia y el encéfalo

Esta semana se ha publicado una entrevista de Jon Gurutz Arranz para Muera la inteligencia que me realizaron el pasado viernes en Bilbao mientras estaba allí con motivo del evento Naukas “El universo en un día”. La entrevista tiene dos partes: “consciencia” y “filosofía de la ciencia / divulgación”. Puede verse completa aquí.

Con respecto a la primera parte de la entrevista ha dado la casualidad de que esta semana también se han colgado en su página web los vídeos de TEDxCERN, entre ellos una fantástica charla de John R. Searle, catedrático de filosofía de la Universidad de California en Berkeley, titulada “Consciousness and the brain”. Un físico tan reconocido como Jon Butterworth ha admitido que lo que nunca hubiese esperado, que la charla de un filósofo fuese la más apasionante y memorable del evento, fue lo que ocurrió.

La charla merece mucho la pena. Está en inglés pero, gracias a los dioses, Searle atemperó su acento de Colorado en Oxford. Habla rápido para comprimir en 15 minutos todo un resumen del estado de la cuestión, pero con ayuda de los subtítulos en inglés puede seguirse, creo, con relativa facilidad. Por si os quedáis con ganas de más, el resto de conferencias TEDxCERN, la mayoría con títulos muy sugerentes, están aquí (sale hasta will.i.am, fijaos si hay variedad). Disfrutadla.


martes, 28 de mayo de 2013

Los objetos matemáticos no existen




La idea de que existen realmente eso que llamamos “objetos matemáticos” puede trazarse hasta Platón. Su razonamiento puede resumirse más o menos en lo siguiente: los geómetras hablan de círculos “perfectos”, triángulos “perfectos” y demás cosas perfectas que no se encuentran en este mundo; por otra parte en la aritmética hablamos de números compuestos de unidades perfectamente iguales entre sí, aunque esas unidades tampoco se encuentren en este mundo; por lo tanto, concluye Platón, las matemáticas tratan de objetos matemáticos que no existen en este mundo, serían objetos puramente inteligibles que habitan “otro mundo”; además, como los objetos no son de este mundo, nuestro conocimiento de ellos debe ser independiente de nuestra experiencia o, lo que dicho técnicamente, constituye un conocimiento “a priori”.

Hoy día un porcentaje significativo de matemáticos trata a los objetos matemáticos platónicamente, bien porque hayan reflexionado sobre ello y hayan llegado a ese convencimiento (los menos) o bien de hecho. Se suele reconocer esta última actitud en que hablan de “descubrimientos”, como si los objetos matemáticos fuesen flores desconocidas en medio de una, hasta ese momento, impenetrable selva ecuatorial. Esta posición que, nos atrevemos a decir, es la que adquieren los matemáticos por defecto, es una forma de realismo: los objetos matemáticos son abstractos, eternos y no tienen relación causal con los objetos materiales. Démonos cuenta que desde un punto de vista lingüístico esto es equivalente a interpretar literalmente el lenguaje matemático (por ejemplo, existe un x y existe un y pertenecientes a tal conjunto tales que si y > x entonces se cumple que....). Siendo justo, no todo realismo matemático es platónico, pero la distinción es tan sutil que a los efectos de lo que sigue no merece la pena pararse en ello.

La cuestión es, si los objetos matemáticos no son de este mundo y, por tanto, no tienen relación causal con los materiales (humanos incluidos), ¿cómo podemos saber que nuestro conocimiento de esos objetos matemáticos es correcto? O, ya puestos, ¿cómo podemos llegar a conocerlos en primer lugar?

Algunos han respondido estas preguntas afirmando que existe una capacidad especial que usan los matemáticos, una intuición matemática, un algo que le da al matemático acceso directo al universo abstracto, eterno y acausal de las matemáticas. Según este punto de vista, la intuición matemática sería uno más de los sentidos que tenemos (que no son cinco, por cierto, son, al menos, nueve; pero este es otro tema). El propio Platón y Kurt Gödel desarrollaron epistemologías a partir de esta idea e indicios de la misma pueden verse en pensadores contemporáneos como Roger Penrose, por ejemplo.

Pero, claro, este planteamiento tiene un problema evidente si ponemos un límite naturalista a la epistemología o, dicho de otra manera, si pensamos que los humanos somos parte de un universo, y no como expresaba Spinoza “un imperio dentro de otro imperio”, todas las facultades humanas deben poder ser estudiadas por métodos científicos. Pero para poder estudiar esta intuición matemática necesitaríamos que el universo matemático tuviese una relación causal con ella; como no la tiene, no puede ser estudiada como parte del universo, digamos, natural y por tanto la posición platónica y la creencia en las revelaciones divinas tendrían el mismo fundamento, esto es, la voluntad del que cree: “creer es un acto del entendimiento que asiente a la verdad divina por imperio de la voluntad movida por Dios mediante la gracia” que decía Tomás de Aquino en la “Suma teológica”.  

Continúa leyendo en el Cuaderno de Cultura Científica

miércoles, 22 de mayo de 2013

El divulgador frente al relativismo



Afortunadamente la ciencia, como la naturaleza a la que pertenece, no está limitada ni por el tiempo ni por el espacio. Pertenece al mundo, y no es de ningún país o época. Cuanto más sabemos, más sentimos nuestra ignorancia; más sentimos cuánto queda desconocido; y en filosofía el sentimiento del héroe macedonio nunca puede aplicarse: siempre hay nuevos mundos por conquistar.

Esta cita pertenece a un discurso que Humphry Davy, uno de los más eminentes científicos del siglo XIX, dirigió a los miembros de la Royal Institution en 1825. En este breve texto se ponen de manifiesto, por una parte la fe en un progreso sin límites para la ciencia y la paradoja del conocimiento, cuanto más conocemos más somos conscientes de lo que no sabemos y, además, lo desconocido parece ser cada vez mayor que lo que se conoce. Pero, cabría plantearse, ¿en qué consiste el progreso científico? ¿realmente es ilimitado? Y ya puestos, ¿es racional?

Estas preguntas podrían parecer intrascendentes para la investigación científica como tal, esto es, el investigador buscará sus resultados independientemente de si existe el progreso en ciencia o no, otra cosa es que sus posiciones filosóficas le influyan más de lo que está dispuesto a reconocer. Pero, tal y como yo lo veo, no son intrascendentes en absoluto para un divulgador científico. El divulgador debe contextualizar lo que cuenta, ponerlo en perspectiva, muchas veces histórica, y en bastantes casos su posicionamiento, consciente o inconsciente, sobre el progreso científico será el que marque su enfoque de los hechos que intenta explicar. No sólo eso, parte de su público objetivo tendrá probablemente una posición diferente y esta diferencia será un obstáculo para la transmisión del conocimiento. De hecho, cuanto más “de letras”, más dificultades. Por ello, tener una idea, aunque sea aproximada, de en qué formas diferentes podemos entender el progreso científico sería de utilidad para que el divulgador pudiera hacer llegar mejor su mensaje o, al menos, comprender mejor las reacciones de partes de su audiencia.

En lo que sigue analizaremos someramente, y sin ánimo de ser exhaustivos, lo que desbordaría los límites de este artículo, tres visiones fundamentales del progreso científico que científicos y divulgadores suelen tomar como propias. Es posible que el amable lector descubra y se identifique claramente con una de ellas, considerándola “de cajón”, o con una combinación lineal de las tres. Para finalizar veremos una cuarta que suele ser frecuente, explícita o implícitamente, en una parte no menor del público teóricamente objetivo y que está en la raíz de parte del rechazo a la ciencia, sus métodos y resultados, dificultades de comprensión aparte: hablamos del relativismo.


Este es el comienzo de nuestro articulo en CICNetwork. La revista completa puede descargarse gratuitamente aquí. El artículo sólo, aquí.

martes, 21 de mayo de 2013

Ni ciencia, ni pseudociencia, ciencia patológica



Irving Langmuir fue un científico en la frontera entre lo experimental y lo teórico. Fue la antítesis de la imagen prototípica del científico: práctico, pragmático, elegante, industrial, con una gran capacidad de comunicación. Recibió el premio Nobel y fue presidente de la Asociación Química Americana (ACS, por sus siglas en inglés). En una famosa charla-coloquio de 1953 describió lo que él llamó la “ciencia de las cosas que no son” o, como sería conocida más tarde, “la ciencia patológica”. Langmuir consideraba ciencia patológica aquella investigación realizada según el método científico, pero marcada por sesgos inconscientes o efectos subjetivos. La ciencia patológica no debe confundirse con la pseudociencia, que no tiene pretensión alguna de seguir el método científico.

Langmuir

Irving Langmuir nació en Nueva York en 1881 y se graduó en la Escuela de Minas de la Universidad de Columbia en ingeniería metalúrgica en 1903. A principios del siglo XX el centro del nuevo conocimiento sobre la constitución de la materia estaba repartido entre Inglaterra y Alemania, con el permiso de Francia. Langmuir opta por dirigirse a Gotinga a estudiar con Walther Nernst, atraído por lo que son los nuevos experimentos que mezclan gases y electricidad. Sólo tres años después ya es doctor.

Tras una formación de primer nivel era natural que su primer empleo fuese como profesor, en concreto en el Instituto Stevens de Tecnología. Tardó muy poco en aburrirse de la vida académica. En 1909 llegó al recién inaugurado laboratorio de investigación de General Electric (GE) en Schenectady (Nueva York), donde permanecería 41 años.

Su primer trabajo fue resolver los problemas que tenían en GE con el nuevo filamento de tungsteno de las bombillas. Como resultado las bombillas pasaron a estar llenas gas (nitrógeno primero, argón después) para evitar la oxidación del filamento y a incorporar éste retorcido en forma de espiral para inhibir la vaporización del tungsteno.

Sus investigaciones puramente industriales le llevaron siempre a preguntarse por el fundamento teórico. Un aspecto notable de este interés fue su incursión en la teoría del enlace químico en términos electrónicos. Langmuir se basó ampliamente en la teoría de Gilbert Lewis, desarrollándola, y ofreciendo como resultado en 1919 el concepto de enlace covalente. Pero cuando Langmuir comenzó a hacerse conocido se abrió una de las más agrias disputas que se recuerdan con Lewis por la prioridad en las ideas. Pasado un tiempo prudencial, podemos afirmar que la mayor parte del mérito teórico fue de Lewis, pero que fue Langmuir el que consiguió hacer inteligible y promocionar la idea. Y es que Langmuir era un gran orador.

No fueron sus estudios sobre el enlace químico los que le valieron el Nobel en 1932, sino sus estudios pioneros sobre las monocapas superficiales, lo que después se ha llamado química o física de superficies. Langmuir fue fundamental en este campo, pero no estuvo sólo (hubo dos mujeres pioneras que hicieron un trabajo importantísimo en este campo, Agnes Pockels con anterioridad, y Katharine Blodgett, al lado de Langmuir).



Continúa leyendo en el Cuaderno de Cultura Científica

viernes, 17 de mayo de 2013

Tiempo para leer (VII)


Todas las semanas se publican decenas de entradas interesantes. Algunas ameritan de más tiempo para disfrutarlas, para la reflexión. Necesitan de tiempo para leer.




Moral y mercados o...¿cuánto vale la vida de un ratón? por Juan Ignacio Pérez en La naturaleza humana

¿Será posible que en cuanto vemos que otros ponen un precio a las cosas, nosotros entremos en el juego y rebajemos con ello nuestros estándares éticos?

Vera, la espía de las estrellas (II): "Lo que ves en una galaxia espiral, no es lo que hay" por Laura Morrón en Los mundos de Brana

Segunda parte de la apasionante historia de esta astrónoma.

28 neutrinos por Enrique F. Borja en Es extraño...

¿Se han detectado neutrinos de altas energías con origen mucho más allá de nuestro Sistema Solar?

Nanomundo de la nanomedicina por Dolores en Pero esa es otra historia...

Una iniciación a lo que la nanotecnología está consiguiendo ya en medicina.

El abominable hombre a -20º por Carlos Romá-Mateo en ¡Jindetrés, sal!

No sabrás si reir o llorar. Puede que hagas ambas cosas a la vez.


John William Nicholson, el Empédocles cuántico




Si uno se encuentra en alguna parte que el universo está compuesto de cuatro elementos, automáticamente asume que el texto que lee, o la historia que cuenta el vídeo que ve o la narración que escucha, tienen que ver muy probablemente con la Grecia prearistotélica [nadie debería pensar en nada posterior porque todos sabemos que Aristóteles introdujo un quinto componente, el éter]. Y es que la teoría de las cuatro “raíces” (la palabra “elemento” es de Platón) es de Empédocles, que vivió en el siglo V antes de la era común.

Pero no, existe la posibilidad de que leas sobre cuatro elementos como constitutivos del universo y se te esté hablando de algo muy reciente, con apenas un siglo de antigüedad. En el año en el que conmemoramos el centenario de la publicación del modelo atómico de Bohr, quizás convenga recordar al que fuera su principal modelo rival y que influyó en el desarrollo del propio modelo de Bohr, uno que ya no aparece ni en la mayoría de los libros de historia, el modelo de John William Nicholson. 

Sigue leyendo en el Cuaderno de Cultura Científica 

Esta entrada es una participación de Experientia docet en la XXV Edición del Carnaval de Química que acoge ISQCH-Moléculas a reacción

jueves, 16 de mayo de 2013

Receta para hacer un encéfalo transparente


El paso 10 de abril aparecía publicado en Nature un método que “hacía transparentes” los encéfalos, llamado CLARITY y que, por su espectacularidad, ocupó periódicos y noticiarios televisivos. Pasado un tiempo razonable, creo que puede resultar interesante para alguno saber cuál es el fundamento de la técnica, que es un prodigio de química aplicada.

Permítaseme ir directamente al grano. Para una introducción general este artículo es tan bueno como cualquier otro (contiene un error en los datos, te dejo que lo averigües, tras leer lo que sigue).

El encéfalo, como cualquier otro órgano del cuerpo, está formado por células, muy especializadas sí, pero células al fin y al cabo. Las células, simplificando mucho, no son más que una serie de orgánulos nadando en un líquido llamado citoplasma contenido por una doble capa lipídica, que es lo que llamamos membrana. Algunos de esos orgánulos, como el núcleo, también están contenidos por dobles capas lipídicas.

Estas membranas son permeables de forma selectiva, esto es, dejan pasar determinadas moléculas pero no otras, en concreto es muy difícil que dejen pasar macromoléculas. Por otra parte la interfase entre la doble capa lipídica y el citoplasma por un lado y por otro la interfase acuosa exterior a la célula provocan la dispersión de la luz. Estos dos fenómenos indican que ni podemos enviar tintes, u otras macromoléculas, al interior de la célula ni podemos ver dentro de ella sin romper la membrana. CLARITY es un método para acabar con estos problemas de raíz: eliminar las dobles capas lipídicas, las membranas, manteniendo su contenido en su lugar, sustituyéndolas por un material que permita el paso de macromoléculas y fotones sin oponer demasiada resistencia y que preserve la integridad estructural de células y tejidos.

Para conseguir este objetivo tan ambicioso CLARITY termina usando un hidrogel formado in situ, como veremos en seguida. Quizás convenga aclarar antes de seguir qué es un gel. Todos tenemos geles en casa, algunos geles de baño/ducha son geles propiamente dichos; sabemos que hacen espuma, que tienen color, que huelen, que se lleva bien con el agua y que actúa como jabón. También es posible que tengas geles en el frigorífico, en forma de gelatina; en esta ocasión te comes el gel. ¿Qué es un gel? Pues es un sistema en el que unas macromoléculas (polímeros) tienen atrapado un líquido en su red estructural, y se llaman hidrogeles si el líquido es agua. Los geles tienen la peculiaridad de que son sólidos si no se agitan (están como conGELados; su nombre viene del latín gelatus, congelado); esta propiedad será muy útil en CLARITY.

CLARITY tiene tres fases:

Primera fase. El proceso comienza introduciendo los monómeros componentes de los polímeros que luego formarán el hidrogel (básicamente acrilamida y bisacrilamida) junto con formaldehído e iniciadores de polimerización por temperatura en los tejidos. Esto se hace en un baño a 4ºC durante dos días.

En esta fase, el formaldehído entrecruza, dicho en químico, une covalentemente, los monómeros de lo que después será el hidrogel a distintas biomoléculas, incluyendo proteínas, ácidos nucleicos y moléculas más pequeñas que anden por allí.

Segunda fase. Se inicia la polimerización de los monómeros (que están unidos a biomoléculas, tengámoslo presente) simplemente elevando la temperatura del conjunto a 37ºC durante 3 horas. Tras este tiempo el tejido y el hidrogel se han convertido en una estructura híbrida que es capaz de dar soporte físico al tejido y que incorpora químicamente las biomoléculas a la red estructural del hidrogel.

Un punto muy importante a resaltar es que ni lípidos ni aquellas biomoléculas que carezcan de los grupos funcionales adecuados están unidas al hidrogel, por lo que pueden ser retiradas del mismo.

Tercera fase. Se extraen los lípidos. La extracción de las moléculas lipídicas se puede hacer con mucho tiempo y empleando disolventes orgánicos (el hidrogel es hidrofílico) o cientos de veces más rápido aprovechando la alta carga de las dobles capas lipídicas (micelas después de todo) usando electroforesis.

El resultado es que el hidrogel asegura que las biomoléculas y los matices estructurales, como las proteínas de membrana, las sinapsis o las espinas, se quedan en su sitio, mientras que los lípidos de las membranas que causan la dispersión de la luz e impiden la penetración de macromoléculas se han quitado de en medio, dejando detrás un sistema biológico con todo en su sitio listo para ser etiquetado, tintado y fotografiado a placer. No hay más que verlo:




Para María, con afecto.


Esta entrada es una participación de Experientia docet en la XXV Edición del Carnaval de Química que acoge ISQCH-Moléculas a reacción


Referencias:

CLARITY Resource Center (información, vídeos, detalles metodológicos, formación)

Chung K., Wallace J., Kim S.Y., Kalyanasundaram S., Andalman A.S., Davidson T.J., Mirzabekov J.J., Zalocusky K.A., Mattis J. & Denisin A.K. & (2013). Structural and molecular interrogation of intact biological systems, Nature, 497 (7449) 332-337. DOI:

martes, 14 de mayo de 2013

Onus probandi y la definición de ciencia




“Los cometas no son restos del disco protoplanetario que dio origen al Sistema Solar. Realmente son sondas que manda una civilización que habita un planeta errante oscuro, llamado Hadesun, más allá de la parte más exterior del Sistema Solar para comprobar la evolución de los humanos en la Tierra. Por eso los gobiernos de las potencias mundiales están enviando sondas (Stardust, Rosetta, Deep Impact) con objeto de hacerse con esa tecnología.” 

No sé si existe algún grupo que sostenga algo parecido a lo anterior. En cualquier caso, yo me lo acabo de inventar a los efectos de ilustrar lo que sigue.

Fijémonos en el planteamiento: unimos hechos conocidos, a saber, existen los cometas, tienen órbitas que los llevan a los confines del Sistema Solar, su interior es desconocido (afirmación implícita), se está gastando dinero en misiones complicadas para obtener información sobre ellos, con una explicación estrambótica pero que, en cierta manera, da cuenta de los hechos. Habrá quien la crea, además. 

Aquí viene uno de los quids de la cuestión que queremos plantear: la explicación hadesunita “es falsable” en el sentido que venimos criticando las dos últimas semanas (aquí y aquí). Entonces, ¿es el hadesunismo una explicación científica hasta que no se demuestre su falsedad? ¿Está a un nivel científico mayor que la teoría de cuerdas, por ejemplo? 

Si reflexionamos un momento, veremos que demostrar explícitamente la falsedad del hadesunismo no es tarea fácil. Las explicaciones que demos se basarán en modelos de la formación del Sistema Solar, en plausibilidades y en la navaja de Ockham pero no en una comprobación experimental de que Hadesun no existe. Por lo tanto estas explicaciones serán fácilmente criticables y habrá multitud de hipótesis auxiliares a las que recurrir cuando los datos experimentales que esgrimamos indiquen que Hadesun no existe. Digámoslo claramente, es en este tipo de “dificultades” en el que se basa la pervivencia de muchas pseudociencias y, de paso, muchas creencias de tipo religioso . 

Y, sin embargo, la resolución de este tipo de planteamientos ya la encontraron hace unos dos mil años los abogados romanos y es extrapolable a la filosofía de la ciencia. Cualquier picapleitos romano habría inmediatamente esgrimido elonus probandi, la carga de la prueba, enunciando adecuadamente el affirmanti incumbit probatio, al que afirma le incumbe la prueba, esto es, será quien afirme que existe Hadesun* quien haya de aportar pruebas tangibles de su existencia. Algo implícito en esta tangibilidad es que debe ser comprobable/reproducible por cualquiera siguiendo una metodología conocida, en cualquier momento y que no valen ni textos revelados, ni palabras de una “autoridad”. 

Vemos que a la falsabilidad se le da la vuelta como un calcetín: no es una característica inherente a la hipótesis que la legitime, sino la actitud con la que debe ser tratada, siendo su falsedad la posición por defecto. De la misma manera, vemos que las hipótesis ganarán valor por sus éxitos. Si nos damos cuenta, y siguiendo con los latinajos legales, es un habeas corpus al revés, “una hipótesis es falsa hasta que se demuestra lo contrario”.

La demarcación entre ciencia y pseudociencia no es tan fácil como parece y lo que sí parece evidente es que no puede basarse en un único criterio.

Sigue leyendo en el Cuaderno de Cultura Científica

viernes, 10 de mayo de 2013

Tiempo para leer (VI)

Todas las semanas se publican decenas de entradas interesantes. Algunas ameritan de más tiempo para disfrutarlas, para la reflexión. Necesitan de tiempo para leer.  



Vera, la espía de las estrellas (I): Los misterios del cielo nocturno por Laura Morrón en Los mundos de Brana

Enciclopédica, en el mejor sentido de la palabra, anotación sobre la vida y obra de Vera Rubin. Una obra de referencia que se lee con muchísimo agrado.

Algo más que un cuadro por Luis Moreno Martínez en El cuaderno de Calpurnia Tate

Un emotivo diálogo imaginado con uno de los padres de la ciencia.

Thíndar y los números elares por Pedro Castro en Las matemáticas

Comprendo que las matemáticas pueden resultar bastante difíciles de por sí para algunos como para encima estar haciendo matemática-ficción, pero este relato permite darle otra vuelta de tuerca a los números imaginarios de una forma, cuando menos, original.

Oblivion y las fuerzas de marea por Arturo Quirantes en Física de película

Parece que la película es lo que es, pero Arturo se las ingenia para que aprendamos cosas interesantes sobre la relación de la Tierra con su satélite.

Clanes y camarillas por Juan Ignacio Pérez Iglesias en La naturaleza humana

¿Con quién te relacionarías si pudieses elegir?

Cuestión de magnetismo por José M Morales en El zombi de Schrödinger

Un recorrido histórico-nostálgico técnico-científico lúdico-chiripitifláutico por el mundo en vías de desaparición de los soportes magnéticos de grabación.

Prohibido conmutar I por Enrique F. Borja en Cuentos cuánticos

¿Qué ocurriría si no pudiésemos conocer con precisión y a la vez las coordenadas espaciales? Una exploración muy interesante de la indeterminación y la no conmutatividad profusamente ilustrada.

miércoles, 8 de mayo de 2013

Determinación de la composición elemental átomo a átomo usando microscopía electrónica.



Se sabe desde hace mucho tiempo que la resolución espacial que se puede conseguir con un microscopio óptico, esto es, la característica más pequeña que se puede observar, es del orden de la longitud de onda de la luz que se emplee. Para que nos hagamos una idea del orden de magnitud, la longitud de onda del verde es de 550 nm (nanometros). Una forma de mejorar esta resolución es evidente: usar partículas con longitudes de onda asociadas más pequeñas o, lo que es lo mismo, más energéticas. Este es el fundamento de los microscopios electrónicos, en los que las partículas que se usan son electrones. Razones de índole puramente ingenieril hacen que la energía de los electrones empleados en los microscopios electrónicos de transmisión (MET) esté en el rango de los 100 a 300 keV, lo que corresponde a una longitud de onda de entre 3,7 y 2 pm (picometros).

Parémonos aquí un momento porque esto es importante. El radio del átomo de hidrógeno, llamado radio de Bohr (la distancia más probable entre el protón del núcleo y el electrón en el estado estacionario) es de 52,9 pm [ojo, el hidrógeno es el átomo más sencillo pero no el más pequeño]. ¿Significa esto que podemos ver “dentro” de un átomo de hidrógeno usando un MET? Vamos a verlo.

La resolución de un MET está limitada no sólo por la longitud de onda de los electrones, sino por las imperfecciones de las lentes electrónicas. Las principales son las aberraciones esférica y cromática. Instalando correctores (lentes auxiliares) se puede conseguir una resolución de 50 pm. Sí existen fotos de átomos, por tanto (véase por ejemplo aquí).

En la MET lo que se hace es que un haz de electrones atraviese una capa muy fina de la muestra (de ahí lo de transmisión) y después medir cómo han sido afectados los electrones por ese paso. De esta forma podemos saber la posición y más o menos el tamaño de los átomos que constituyen la muestra. En este sentido, “vemos” los átomos. Sabemos qué átomos son, qué elementos, por métodos químicos: bien porque nosotros hemos sintetizado la muestra, bien porque lo hayamos determinado analíticamente.

En el caso del MET, al atravesar la muestra los electrones pueden perder una cantidad de energía que es característica del elemento concreto con el que están interaccionando. Existe una versión de los MET, la llamada con filtro de energías (MET-FE), que es capaz de interpretar las energías de los electrones transmitidos y obtener lo que se llaman mapas químicos de la muestra. Esta técnica ya es comercial y permite realizar análisis químicos a escala nanométrica (véase por ejemplo IMP).

Acabamos de decir nanométrica. ¿Pero no decíamos que la resolución era 50 pm? Efectivamente, pero de nuevo nos encontramos para las técnicas MET-FE los problemas de las aberraciones, especialmente la cromática. Por lo tanto la MET-FE aún no ha conseguido la resolución atómica.

Y aquí es donde interviene el equipo encabezado por Knut Urban, del centro de investigación Jülich (Alemania). Urban recibió en 2011 el premio Wolf de física precisamente por sus trabajos para corregir las aberraciones en los MET. En un artículo aparecido en Physical Review Letters estos investigadores lo que vienen a decir es que han conseguido corregir la aberración cromática en MET-FT. Y para ello han usado el mismo razonamiento que se emplea en astroquímica.

Para determinar que en una nebulosa existe la molécula X, lo que se hace es tomar una muestra de esa molécula, ponerla en las condiciones de temperatura y vacío del espacio interestelar, y medir su espectro en esas condiciones. Después hay que cotejar los espectros recogidos por los telescopios para comprobar si los picos característicos de nuestra molécula están presentes. Pero, y esto es lo interesante, lo que se hace si no se puede conseguir poner la muestra en las condiciones del espacio por la razón que sea, son cálculos teóricos (químico-cuánticos) a partir de primeros principios que nos dirán cuál será probablemente su espectro. Urban et al. han hecho esto mismo aparte de desarrollar nuevas ópticas: cálculos teóricos que permiten interpretar la información recibida.

Los autores pusieron a prueba su método con una muestra de silicio consistente en un único cristal. Seleccionaron sólo aquellos electrones que interactuaban con electrones muy específicos del silicio. La resolución fue suficiente para visualizar las “mancuernas de silicio”, átomos de silicio vecinos que se emparejan en ciertos planos del cristal. Las imágenes muestran que los centros de dos átomos que forman una mancuerna están separados 135 pm (te puedes entretener midiéndolo tú, sabiendo que el radio atómico del silicio es 111 pm).



Si nos damos cuenta, esto es exactamente lo que se ve en las películas de ciencia ficción: introducen una muestra minúscula en un equipo y éste te dice la composición átomo a átomo. El futuro ya está aquí (otra vez). Nos falta la Enterprise.

Esta entrada es una participación de Experientia docet en la XXV Edición del Carnaval de Química que acoge ISQCH-Moléculas a reacción



Referencia:

Urban K.W., Mayer J., Jinschek J.R., Neish M.J., Lugg N.R. & Allen L.J. (2013). Achromatic Elemental Mapping Beyond the Nanoscale in the Transmission Electron Microscope, Physical Review Letters, 110 (18) DOI:



martes, 7 de mayo de 2013

Desviación de la luz y falsabilidad




Es conocido el hecho de que Albert Einstein se hizo mundialmente famoso tras la medición por parte de Arthur Eddington el 29 de mayo de 1919 de la desviación que sufría la luz al pasar cerca de un objeto masivo, en este caso el Sol. En muchos lugares veremos recogido que este efecto era una predicción de la teoría general de la relatividad de 1916, y esto, para sorpresa de alguno, ya no es del todo correcto.

La predicción de que la luz sufre una desviación al pasar cerca de un objeto masivo está presente en la mecánica newtoniana. Tanto es así que tanto Henry Cavendish en 1784 (en un manuscrito que, fiel a su costumbre, no publicó) como Johan Georg von Soldner realizaron cálculos de la magnitud de esa desviación. El manuscrito de von Soldner [1], titulado “Sobre la desviación de un rayo de luz de su movimiento rectilíneo por la atracción de un cuerpo celeste del que pasa cerca”, escrito en 1801 y publicado en 1804, contenía los resultados de éste.

En 1911 Einstein publicaba el artículo “Sobre la influencia de la gravedad en la propagación de la luz” [2], ampliación de uno de 1908, en el que obtenía, atención, los valores de Soldner pero, eso sí, basándose únicamente en el principio de equivalencia. Tal era la coincidencia numérica que Philipp Lénárd tuvo base para acusar después a Einstein de plagio.

Avanzada la teoría general de la relatividad, Einstein se dio cuenta de algunos errores, y corrigió sus cálculos en 1915 obteniendo los datos (la suma de los efectos clásicos y de la dilatación temporal gravitacional) que después Eddington daría por confirmados en 1919.

En su artículo de 1911 Einstein proporcionaba una posibilidad de comprobar experimentalmente sus teorías. De hecho, Einstein asumía que una medición de la desviación de la luz a su paso por las cercanías del Sol probaría que su hipótesis era correcta y que Newton fallaba. A hacer la observación se avino Erwin Finlay-Freundlich, del Observatorio de Berlín. Finlay-Freundlich organizó una expedición financiada por Gustav Krupp von Bohlen und Halbach para observar el eclipse total de Sol del 21 de agosto de 1914 desde la península de Crimea. Pero, hete aquí, que el archiduque Franz Ferdinand fue asesinado en Sarajevo el 28 de junio de 1914; la Primera Guerra Mundial comenzó exactamente un mes más tarde. Finlay-Freundlich, en ruta hacia Crimea, fue hecho prisionero.

La siguiente oportunidad de medición fue la que aprovechó Eddington en 1919, con los valores teóricos ya corregidos y la teoría general de la relatividad ya publicada en 1916. Sin embargo, y aunque las observaciones se repitieron varias veces (notablemente en 1922 y 1953), hasta que no se pudo medir en radio frecuencia, ya en los años 60, la incertidumbre de las mediciones no se redujo lo suficiente como para confirmar que la desviación se correspondía con lo predicho por la teoría general de la relatividad y no la mitad de ese valor, lo predicho por Newton.

Continúa leyendo en el Cuaderno de Cultura Científica

viernes, 3 de mayo de 2013

Tiempo para leer (V)



La química de un bar de copas por Yanko Iruin en El blog del búho

Lectura imprescindible para los amantes del amaretto. Indiciaria de que han sobrevivido evolutivamente las bebidas espirituosas no tóxicas.

Antonio Longoria y el rayo de la muerte por Alejandro Polanco en Tecnología obsoleta

Lo del rayo de la muerte era muy habitual en la ciencia ficción de los 50 y 60 del siglo pasado. ¿Y si hubiese existido?

Especial en Nature sobre cultivos transgénicos por JM Mulet en Los productos naturales ¡vaya timo!

Puesta al día sobre el estado de una cuestión polémica, sobre la que falta mucha información científica en la población en general, y con impactos económicos evidentes. Resumen de los puntos principales del número especial de Nature.

La teoría de cuerdas, ¿ciencia o pseudociencia? por Francis Villatoro en La ciencia de la mula Francis

Reflexión sobre la validez científica de la teoría de cuerdas (como reacción a mi anotación en el Cuaderno de Cultura Científica "Las teorías científicas no son falsables")

Sobre el criterio de falsabilidad por José Luis Ferreira en Todo lo que sea verdad

Otra reacción muy interesante, desde otra perspectiva, a mi anotación en CCC.

El fotón y la masa por Enrique F. Borja en Cuentos cuánticos

Advierto que contiene fórmulas, pero es muy fácil de seguir si no se tiene prisa y las matemáticas no pasan de las del bachillerato (el mío, al menos). Un tema aparentemente baladí pero que encierra el intríngulis de la relatividad especial y más allá muy bien desarrollado por Enrique (¿seré yo o se le nota últimamente la influencia de Fis el amigo de Mati?).

Peligro de explosión por José I. García Laureiro en Moléculas a reacción

Si te gustan las explosiones, disfrutarás de lo lindo. Muy bien escrito.

Elektra o mi reino no es de este mundo por Sergio L. Palacios en El tercer precog

Un clásico de "Física en la Ciencia Ficción" que Sergio recupera para el disfrute general.

miércoles, 1 de mayo de 2013

Son lo que comen: la dieta de las abejas comerciales como causa última de su desaparición.



Estos días ha sido noticia en Europa la prohibición de tres pesticidas neonicotinoides por sus presuntos efectos perniciosos sobre la población de abejas melíferas. Todo ello alimentando la quimiofobia general. Y, sin embargo, existe la posibilidad de que lo que estemos es ante una caso manifiesto de falacia cum hoc ergo procter hoc, más conocida quizás en su forma “correlación no implica causalidad”. Pero fundamentemos esta afirmación.

Un equipo de entomólogos de la Universidad de Illinois en Urbana-Champaign (EE.UU.), encabezados por Wenfu Mao, ha encontrado una posible conexión entre la práctica de alimentar a las abejas con productos sustitutivos de néctar, como los jarabes de alto contenido en fructosa (hasta del 92% se comercializa en España, por ejemplo), y la disminución de las colonias de abejas. Estos alimentos sustitutivos no contienen compuestos esenciales para la regulación de los procesos inmunes y desintoxicantes de la Apis mellifera, lo que las haría vulnerables a pesticidas que no tendrían por qué afectarles. Los resultados se publican en los Proceedings of the National Academy of Sciences.

Los sustitutivos del néctar comenzaron a usarse en los años 70 del siglo pasado. Desde entonces se han desarrollado y comenzado a usarse nuevos pesticidas, pero parece ser que la respuesta inmune de las abejas no ha podido adaptarse a estos cambios en su ambiente.

Los investigadores determinaron que compuestos que se encuentran en la miel, incluyendo el ácido p-cumárico, la pinocembrina y la pinobanksina 5-metil éter, inducen específicamente la acción de los genes de proteínas desintoxicantes. Estos compuestos no se encuentran en el néctar (que es a lo que sustituyen realmente los jarabes) sino en el polen y el propóleo.

En concreto encontraron que el ácido p-cumárico regula toda clase de genes desintoxicantes, así como determinados genes antimicrobianos (aunque algo de esto ya sabíamos). Esta regulación tiene importancia funcional, como los investigadores demostraron añadiendo p-cumárico a una dieta de sacarosa, lo que incrementaba el metabolismo de un ectoparasiticida organofosforado (Cumafós), también usado como acaricida en el interior de las colmenas, en un 60%.

Vemos así que el uso extensivo de los sustitutivos alimenticios por parte de los apicultores industriales, que retiran toda la miel impidiendo a las abejas alimentarse en invierno de sus reservas que contienen todos los micronutrientes necesarios, podrían estar privando a éstas de su mecanismo natural de defensa.

Si esto se confirmase (de hecho cualquier apicultor que leyese esto podría hacer un experimento fácilmente), aparte de ser una bonita ilustración de una falacia lógica, las soluciones no serían demasiado difíciles. Eso sí, serían económicas y de cadena de suministro.

Referencia:

Mao W., Schuler M.A. & Berenbaum M.R. Honey constituents up-regulate detoxification and immunity genes in the western honey bee Apis mellifera, Proceedings of the National Academy of Sciences, DOI: