viernes, 15 de noviembre de 2013

ED se traslada a http://edocet.naukas.com



Pues sí. Tras 7 años disfrutando de Blogger (no tenemos queja), Experientia docet se traslada a la red de blogs creada por Naukas. La nueva dirección es edocet.naukas.com. El feed edocet.naukas.com/feed

En estos momentos la red está comenzando, por lo que aún faltan algunas cosas, como las distintas modalidades de suscripción. Todo se andará. En cualquier caso se trata de un proyecto muy interesante en el que podéís encontrar en un sólo sitio algunos de los blogs de ciencia más interesantes escritos en español (y más que se unirán en breve).

Finalmente, www.experientiadocet.com, seguirá estando operativa pero ya no se actualizará y en una semana desde esta fecha se cerrarán los comentarios. A partir de ese momento sólo estaremos en edocet.naukas.com con nuevos contenidos (de hecho ya hay nuevos contenidos).

Muchas gracias por todo.

jueves, 14 de noviembre de 2013

Una pared de ladrillos cristalina



Lo que ves en la imagen no es una pared de ladrillo. Es una micrografía obtenida por microscopía electrónica de trasnmisión de cristales de titanato de estroncio (fases de Ruddlesten-Popper), que responden a la fórmula Srn+1TinO3n+1 ,que hacen de ladrillos, y capas de óxido de estroncio (SrO), que hacen de cemento. Las capas de SrO permiten que las de titanato crezcan sin defectos. El color se ha añadido para visualizar mejor.

En esta investigación ha participado un enorme equipo internacional de un montón de instituciones (incluyendo la Universidad Politécnica de Cataluña). El material tiene propiedades dieléctricas muy interesantes con posibles aplicaciones importantes en comunicaciones. Podéis leer sobre ello aquí (divulgación) y aquí (comunicación), además del artículo técnico publicado en Nature.

Referencia:

Lee C.H., Orloff N.D., Birol T., Zhu Y., Goian V., Rocas E., Haislmaier R., Vlahos E., Mundy J.A., Kourkoutis L.F. & et al (2013). Exploiting dimensionality and defect mitigation to create tunable microwave dielectrics, Nature, 502 (7472) 532-536. DOI:


Esta entrada es una participación de Experientia docet en la Edición Inaugural del Festival de la Cristalografía que organiza Educación química y en la XXIX Edición del Carnaval de Química que acoge Más ciencia, por favor.

miércoles, 13 de noviembre de 2013

Reseña: "Neurociencia cognitiva" de Diego Redolar et ál.


“La neurociencia cognitiva, con su interés por la percepción, la acción, la memoria el lenguaje y la atención selectiva, vendrá a representar cada vez más el eje central de las neurociencias en el siglo XXI.”

La neurociencia cognitiva está de moda. Rara es la semana que alguna noticia relacionada con ella no aparece en algún medio de información general. Y está de moda por méritos propios, porque es la ventana que la ciencia ha abierto al interior de la mente humana.

La neurociencia cognitiva es una ciencia interdisciplinar que intenta encontrar la relación existente entre la actividad neuronal, y del encéfalo en su conjunto, con el comportamiento. Implica la participación de biólogos, médicos, químicos, físicos, matemáticos, informáticos, lingüistas, ingenieros y psicólogos, con todas las subespecialidades imaginables.

En Experientia docet nos hemos ocupado de la neurociencia cognitiva profusamente en nuestros siete años de vida. Y en estos siete años más de una vez nos han preguntado por un texto introductorio general, a lo que hemos respondido siempre igual: el mejor texto general (no estrictamente de neurociencia cognitiva) es el Kandel, pero en versión original y sabiendo que no trata aspectos importantes de la neurociencia cognitiva de vanguardia.

Por eso nos ha gustado mucho el texto publicado por Editorial Médica Panamericana que ha coordinado (y escrito en parte) Diego Redolar, de la Universitat Oberta de Catalunya, y que se llama, precisamente, “Neurociencia Cognitiva”.

En primer lugar, se nota muy mucho que Redolar es profesor en una universidad a distancia. Efectivamente, los textos son autocontenidos, con referencias cruzadas claras (también a los materiales suplementarios de la web), con refuerzos visuales de los conceptos importantes y recuadros donde entrar en el detalle de algún aspecto mencionado en el texto principal. Además el lenguaje es todo lo llano y fluido que puede ser un texto académico (aunque se empeñe en usar la palabra cerebro donde debiera decir encéfalo). Y esto, coordinando a una cincuentena larga de especialistas dispersos por dos continentes que han contribuido al trabajo, es un logro no menor.

En segundo lugar, no han evitado entrar en temas que son de la más absoluta vanguardia y que pueden, incluso, ser polémicos. Así, por ejemplo, tras los capítulos dedicados a la introducción histórica a la materia (un capítulo muy recomendado a los psicólogos), a la neuroanatomía y a la metodología, el capítulo 5* está dedicado a las bases de la conectividad funcional exploradas usando la actividad espontánea del cerebro; algo que hace 3 años todavía había que explicar qué era (uno de los autores es María de la Iglesia, vieja amiga de esta casa, que en la web que acompaña al texto ha incluido una referencia a un texto de Experientia docet).

Otros temas llamativos son el capítulo 22 “Conducta sexual, cerebro, cognición y afectividad” que no es políticamente correcto precisamente, pero la ciencia no lo es. El 27 “Control ejecutivo, toma de decisiones, razonamiento y resolución de problemas” tras una introducción anatomofisiológica a las partes relevantes del encéfalo, se mete en asuntos que serían de obligada lectura para todo economista que aún piense que los humanos toman decisiones racionalmente.

Redolar no rehuye una de las grandes cuestiones, a diferencia del Kandel que le dedica media página de perfil, y el capítulo 28 está dedicado a “La conciencia: conceptos, hipótesis y observaciones clínicas y experimentales”; es un capítulo que se lee especialmente bien y que está muy recomendado para quien piense que aún es necesaria la hipótesis cuántica o la existencia de un alma para explicar la consciencia. Finalmente, el capítulo 29 está dedicado a la “Neurocomputación y modelización de sistemas cognitivos”.

Consideración aparte merece el sorprendente por inesperado capítulo 30 dedicado a la divulgación de la ciencia, su título lo dice todo “La difusión de los avances y las aplicaciones en neurociencia cognitiva: necesidad, reto y responsabilidad”. Es muy interesante. Y discutible en algunas cosas. Curiosamente, este capítulo no aparece en el índice de contenidos publicado en la página de la editorial.

En definitiva, un texto muy completo, bien escrito, que interesará a un amplio abanico de estudiantes. Para concluir decir una cosa que puede sonar rara: el libro es muy bonito. Puede parecer extraño, pero es la sensación que se tiene al ojearlo, hojearlo y leerlo; es un objeto muy agradable, aunque pese lo suyo.

* Información completa sobre el texto (incluyendo el índice, la posibilidad de descargaros gratis el capítulo 5 y más cosas) la podéis encontrar aquí. [No se lo digáis a nadie, pero si decidís comprar el texto e incluís el código ED10, tenéis un 10% de descuento; es una cortesía de la editorial con los lectores de Experientia docet, nosotros no nos llevamos ni un céntimo.]



martes, 12 de noviembre de 2013

La tesis Duhem-Quine (I): Introducción


De vez en cuando uno se encuentra con profesores universitarios de ciencias que, si bien puede que tengan un amplio conocimiento de la materia objeto de su especialidad, no tienen reparo en defender en público, incluso con vehemencia, posiciones de filosofía de la ciencia de una inocencia y candidez que serían risibles si no rayasen lo patético.

Habitualmente la tesis preferida para la defensa a ultranza es el falsacionismo naif, esto es, la idea de que las teorías científicas son falsables (cosa que los lectores de esta sección del Cuaderno a estas alturas ya deberían, por lo menos, dudar) y sus consecuencias inmediatas en esta línea de pensamiento, a saber, que sólo las teorías científicas son falsables y que, si una teoría es falsable, es científica (quizás debamos recordar que la falsabilidad no es un atributo de las teorías, sino una actitud).

Se hace pues necesario no retrasar más la introducción de una tesis que no por antigua es más conocida entre los profesionales de la ciencia y que todos ellos, así como el público en general, deberían tener en mente a la hora de considerar la posible trascendencia de un resultado científico. Me refiero a la tesis de Duhem-Quine.  

Continúa leyendo en el Cuaderno de Cultura Científica

lunes, 11 de noviembre de 2013

Un caballo de Troya contra el cáncer de mama

siRNA dispersándose por la célula cancerígena tras abandonar el recubrimiento de ácido hialurónico.

El focense Epeo del Parnaso ensambló, por las artes de Palas, un caballo henchido de hombres armados e introdujo la mortífera imagen dentro de los muros. De aquí recibirá entre los hombres venideros el nombre de caballo de madera, encubridor de lanzas escondidas.
Eurípides, Las troyanas, 10.



El cáncer de mama triple negativo es uno de los más puñeteros que existen. Es difícil de tratar, siendo resistente a algunos de los tratamientos más eficaces contra el cáncer de mama y, casi siempre, fatal. Una de las razones por la que los tratamientos no funcionan es porque las células están armadas con bombas celulares que eliminan los fármacos anticancerígenos que consiguen superar las murallas celulares. Un equipo de investigadores encabezado por Zhou Deng, del departamento de ingeniería química del Instituto de Tecnología de Massachusetts (EE.UU.) en colaboración con el Instituto Koch de Investigación del Cáncer, ha diseñado una nanopartícula de tres capas que, como el antiguo caballo Troya, primero engaña, luego elimina las defensas y finalmente destruye las células cancerosas. Los resultados se publican en ACS Nano.

La capa externa de cada nanopartícula está hecha de ácido hialurónico, un polisacárido que tiende a acumularse en las células cancerígenas. Esta capa es la que engaña a la célula cancerosa, como Sinón a los troyanos, y la que permite que la nanopartícula entre en la célula.

La capa intermedia esta hecha de ARN, en concreto un tipo de ARN conocido como ARN pequeño de interferencia (siRNA, por sus siglas en inglés) que son el producto de genes que no codifican proteínas. Ahora sabemos, en contra de lo que se ha pensado durante mucho tiempo, que los genes que no codifican proteínas, de los que los siRNA son sólo un ejemplo, son muchos más que los que codifican proteínas. La función de los siRNA es interferir en la producción, precisamente, de proteínas, regulándola de este modo. Esto mismo hace que los siRNA puedan emplearse médicamente para desactivar la producción de una proteína específica. El equipo de Deng ha seleccionado un siRNA que desactiva la proteína que forma las bombas. En nuestra analogía el siRNA sería Odiseo y sus hombres escondidos en el caballo, que eliminan a los centinelas y abren las puertas de la ciudad.

La capa más interna de la nanopartícula está constituida por un fármaco quimioterapeútico estándar, la doxorrubicina (un antibiótico), el equivalente al ejército aqueo oculto en Ténedos y que se apresura a tomar y destruir Troya. Y parece ser que esto es lo que ocurre, al menos en ratones.


Los investigadores prepararon cuatro grupos de siete ratones con cáncer de mama triple negativo. Cada uno de los cuatro grupos recibió un tratamiento distinto: el primero, control, fue suero salino; el segundo, nanopartículas de ácido hialurónico con siRNA activo; el tercero, cápsulas de ácido hialurónico, doxorrubina pero con siRNA inactivo; y, finalmente, el cuarto, con la particula completa, esto es, hialurónico, siRNA activo y doxorrubina. Cada grupo recibió una dosis cada cinco días, durante quince.

En los grupos primero, segundo y tercero los tumores llegaron a ser 6 veces mayores que 15 días antes. En el cuarto, con la partícula completa, los tumores se redujeron, en promedio, un 87% en tamaño y, en dos ratones, desaparecieron completamente. Troya había sido arrasada.

Pero los ratones no son mujeres. Y la prueba es muy pequeña. Por lo que este resultado debe ser tomado con precaución extrema. Pero, con todo, parece prometedor. Será necesario realizar pruebas con muestras mucho mayores que, de confirmar estos resultados, indicarían que estaríamos ante una nuevo tipo de terapia capaz de acabar con lo que hasta ahora parecía intratable. Como los troyanos.

Referencia:

Deng Z.J., Morton S.W., Ben-Akiva E., Dreaden E.C., Shopsowitz K.E. & Hammond P.T. (2013). Layer-by-Layer Nanoparticles for Systemic Codelivery of an Anticancer Drug and siRNA for Potential Triple-Negative Breast Cancer Treatment, ACS Nano, 131021120115007. DOI:

Esta entrada es una participación de Experientia docet en la XXIX Edición del Carnaval de la Química que organiza Más ciencia, por favor


jueves, 7 de noviembre de 2013

La asombrosa variedad genética de las neuronas humanas


Los análisis genómicos de neuronas humanas individuales, tanto extraídas post mortem como obtenidas en cultivo, ponen de manifiesto que existe en ellas una considerable variación en el numero de copias del ADN. Es probable que estas diferencias genéticas afecten a las funciones de las células encefálicas y que podrías, por tanto, tener influencia en nuestra personalidad, inteligencia o en la susceptibilidad a desarrollar enfermedades neurológicas. El estudio, encabezado por Michael McConnell, del Instituto Salk de Estudios Biológicos (EE.UU.), se ha publicado en Science.

En las neuronas existen una serie de cambios genéticos conocidos: la aneuploidía es el cambio en el número de cromosomas; en las retrotransposiciones una secuencia de ADN se mueve a otra parte del genoma mediante transcripción a ARN; y, finalmente, la expresión de enzimas que alteran el ADN. Todas estas fuentes de diversidad genética son frecuentes en el encéfalo.

Durante mucho tiempo ha existido la idea de que, dada la enorme variedad de tipos de células en el encéfalo, deberían existir mecanismos genéticos que generaran esta diversidad. Uno de los mecanismos genéticos potentes que podrían contribuir a esta variedad celular, aparte de los anteriores, es la variación en el número de copias (VNC). Una VNC es una modificación estructural del ADN, en la que una parte significativa del mismo desaparece o aparece duplicada tras una copia en determinados cromosomas. No hay que confundir las VNC con los polimorfismos de un sólo nucleótido, que afectan a un sólo gen y que son los cambios más estudiados para ver la influencia genética en determinado proceso.

Para determinar la variabilidad genómica como consecuencia de la VNC es necesario una tecnología que permita analizar célula a célula pues, de lo contrario, con las técnicas de secuenciación habituales lo que se obtiene es un promedio de un gran número de células presentes en el tejido analizado y este promedio tenderá, en general, a acercarse a una sola copia conforme sea mayor el número de células consideradas.
McConnell y sus colegas han conseguido secuenciar células individuales gracias a una técnica desarrollada recientemente en el Laboratorio Cold Spring Harbour (EE.UU.). En concreto ha analizado 110 neuronas individuales extraídas de tres personas fallecidas. Y el resultado es sorprendente: el 41% de las células contienen una o más VNC, la mayoría borrados o duplicaciones.

Por otra parte, el análisis de neuronas derivadas en cultivos a partir de células madre pluripotentes inducidas (CMPI) reveló la existencia de un número de VNC similar: de 40 células secuenciadas, 13 presentaban cambios únicos en sus genomas.

Un aspecto interesante es que las células progenitoras neuronales derivadas de estas mismas líneas de CMPI no tenían tanta diversidad. Esto sugeriría, primero, que la variación genética de las neuronas tiene lugar sólo en las etapas posteriores de diferenciación y, segundo, que la variación se desarrolla en un corto espacio de tiempo (las neuronas necesitan siete semanas para diferenciarse de sus progenitores). También podría concluirse que la variación detectada en las neuronas tomadas post mortem no sería un efecto del envejecimiento (en principio, la copia repetida aumentaría la probabilidad de un fallo en una copia).

Por tanto, si los cambios genéticos tienen lugar pronto, resulta que nos acompañan durante la mayor parte de nuestra vida y, por consiguiente, la probabilidad de que afecten a la configuración y funcionamiento de nuestro encéfalo aumentaría, con lo que ello implica para el comportamiento, la inteligencia o las enfermedades neuropsiquiátricas. ¿Cuánto? Eso tendrá que esperar, entre otras cosas, a nuevos avances tecnológicos que permitan estudiar VNC y expresión genética en la misma célula individual.

Referencia:

McConnell M.J., Lindberg M.R., Brennand K.J., Piper J.C., Voet T., Cowing-Zitron C., Shumilina S., Lasken R.S., Vermeesch J.R. & Hall I.M. & (2013). Mosaic Copy Number Variation in Human Neurons, Science, 342 (6158) 632-637. DOI:

miércoles, 6 de noviembre de 2013

El conocimiento tácito de Polanyi


La idea de que podemos conocer realmente más de lo que podemos contar tomó forma por primera vez como concepto epistemológico con implicaciones sociológicas gracias a Michael Polanyi en los años cincuenta del siglo pasado. Desde entonces el conocimiento tácito ha sido profusamente usado en la historiografía y la sociología de la ciencia y la tecnología.

Según Polanyi, de la misma forma en que algunas veces al percibir un objeto reconocemos patrones de los que somos incapaces de decir cómo los reconocemos, cuando conocemos muchas veces aceptamos algo implícito pero muy concreto. Y esto que aceptamos implícitamente une tres factores: el objeto de nuestra atención, la persona que conoce, y la tradición que comparte con el grupo al que pertenece.

El ejemplo favorito de Polanyi a nivel perceptivo era nuestra capacidad de reconocer las múltiples expresiones de una cara humana sin que seamos capaces de decir cómo las reconocemos. También mencionaba a menudo la capacidad de los expertos para reconocer el fraseo de un pianista o el proceso de envejecimiento de un vino, en cuyos casos por mucho que intenten describir sus elementos constitutivos son incapaces de transmitir el todo. 

Cuando se aplica a la ciencia y a la tecnología el concepto de Polanyi es el equivalente a incorporar la perspectiva a una imagen que hasta entonces se ha representado plana. La visión tradicional de la ciencia como un conocimiento objetivo, incorpóreo, es insuficiente para acomodar todas las dimensiones personales y sociales implicadas en la adquisición, práctica y transmisión del conocimiento tácito. En los escritos de Polanyi la ciencia aparece como un arte, en el que las normas científicas y sociales se entrelazan, a diferencia de la empresa impersonal y abstracta que describían los positivistas lógicos a mediados del siglo XX.

Continúa leyendo en el Cuaderno de Cultura Científica

jueves, 31 de octubre de 2013

Bohr: 100 años de estados estacionarios



En el pasado Passion for Knowledge - Quantum 13 di una charla naukas titulada "Bohr no fue el primero" que se puede ver aquí. En ella explicaba que Bohr no fue el primero en proponer un modelo cuántico del átomo como habitualmente se cree. Me basaba para afirmar esto en una investigación y recopilación de datos que ha durado casi un año y que se a materializado en un artículo titulado "Bohr: 100 años de estados estacionarios" que se ha publicado en la revista Anales de Química de la Real Sociedad Española de Química. Ahora este artículo está disponible gratuitamente en formato PDF en este enlace.

Este trabajo no hubiese sido posible sin la ayuda inestimable de Bernardo Herradón (@quimicasociedad) y Daniel Torregrosa (@DaniEPAP), a los que reitero desde aquí mi agradecimiento.

martes, 29 de octubre de 2013

Del modelo imponderable a la hipótesis cuántica

En una anotación anterior presentábamos el modelo imponderable, el primer modelo estándar de la física. Hoy vamos a ver cómo evolucionó a lo largo del siglo XIX y cómo el afán por completarlo llevó a una física más allá del modelo estándar.



El modelo imponderable, que se había ganado su lugar como el estándar alrededor de 1800, tenía dos virtudes principales. Por una parte explicaba inmediatamente la existencia de los fenómenos por la mera presencia del agente correspondiente y, por otro encajaba con la moda científica de la época: la cuantificación.

En 1785, Charles Augustin Coulomb estableció, para satisfacción de los miembros de la Académie des Sciences de París, que las fuerzas entre los fluidos en la electricidad y en el magnetismo disminuían, como lo hacía la fuerza de la gravedad, con el cuadrado de la distancia entre los elementos que interactuaban.

Pierre Simon de Laplace y su escuela mantuvieron durante mucho tiempo la ambición de cuantificar las fuerzas a distancia que se suponía que actuaban entre los elementos del fluido de calor (que ellos llamaban calórico) y entre las partículas de luz y la materia. Hoy puede parecernos absurdo por irreal pero Laplace y Jean Baptiste Biot se las arreglaron para, a partir de estas premisas, y en el marco del modelo imponderable, explicar con detalle la refracción, tanto simple como doble, la polarización y otros fenómenos ópticos.

Tomando literalmente el concepto de calor como fluido conservado, Laplace creó una magnífica teoría de los procesos adiabáticos que resolvía el viejo problema de la escandalosa discrepancia entre los tratamientos teóricos y los resultados experimentales de las mediciones de la velocidad del sonido en el aire. Si bien no hacía uso de fuerzas a distancia, esta teoría adiabática asumía (y potenciaba la creencia en) la existencia del calórico.

Continúa leyendo en el Cuaderno de Cultura Científica

miércoles, 23 de octubre de 2013

La consciencia no tiene un área específica en el encéfalo

Parcelación del encéfalo para el estudio del flujo de información | Monti et al (2013)
El que la consciencia es un un fenómeno emergente relacionado con la comunicación entre distintas áreas del encéfalo, en vez de estar centrado en una sola de ellas, se hace cada vez más evidente. Ahora un grupo de investigadores encabezado por Martin Monti de la Universidad de California en Los Ángeles (Estados Unidos), añade otra gotita al vaso. Ha usado resonancia magnética funcional (fMRI) para estudiar el encéfalo de voluntarios en el momento de quedar inconscientes y publicado sus resultados en PloS Computational Biology.

Un fenómeno emergente es aquel, habitualmente complejo, que surge de la interacción de sistemas de muchos componentes cada uno de los cuales tiene un funcionamiento muy sencillo. Ejemplos son los movimientos de las bandadas de estorninos (unidad: estornino) o bancos de peces (unidad: pez), el tráfico en una ciudad (unidad: vehículo) o la imagen que estás viendo en pantalla (unidad: píxel).

Monti et al usaron fMRI para estudiar el flujo de información en los encéfalos de 12 voluntarios sanos mientras éstos perdían la consciencia al ser anestesiados con propofol. La edad de los sujetos oscilaba entre los 18 y los 31 años, había igual número de mujeres y varones y el procedimiento se llevó a cabo en el Hospital Universitario de Lieja (Bélgica).

Los encéfalos de los sujetos fueron estudiados usando teoría de grafos para dilucidar sus propiedades de red, la misma teoría que se emplea para estudiar otros fenómenos complejos en los que intervienen nodos: los grupos sociales, el tráfico aéreo o la información en Internet, por ejemplo.

El resultado más significativo del estudio es que cuando perdemos la consciencia la comunicación entre las áreas del cerebro deja de ser eficiente, como si de repente cada área del encéfalo se alejase de las demás, dificultando de esta forma que la información fluyese de una a otra.

Estos datos reforzarían la idea de que la consciencia no reside en un lugar en concreto de nuestro encéfalo sino que emerge del modo en el que miles de millones de neuronas se comunican entre sí.

Este y otros hallazgos recientes los comentaremos durante Status Quo el próximo 5 de noviembre en San Sebastián (habrá streaming).

Referencia:

Monti M.M., Lutkenhoff E.S., Rubinov M., Boveroux P., Vanhaudenhuyse A., Gosseries O., Bruno M.A., Noirhomme Q., Boly M. & Laureys S. & (2013). Dynamic Change of Global and Local Information Processing in Propofol-Induced Loss and Recovery of Consciousness, PLoS Computational Biology, 9 (10) e1003271. DOI:

martes, 22 de octubre de 2013

Pensando la química matemáticamente

El conocimiento químico viene de antiguo. Hasta hace poco más de un siglo era un conocimiento puramente fenomenológico obtenido en la mayoría de los casos por ensayo y error. Démonos cuenta que la cuantificación en la química empieza a finales del siglo XVIII, con Lavoisier y el uso de la balanza, por lo que no cabría esperar la existencia ni de teoría química propiamente dicha, ni mucho menos, de una teoría de estructura matemática antes de esa fecha. Sin embargo, si nos paramos a definir qué es pensar matemáticamente, podemos encontrar ilustraciones de pensamiento matemático aplicado a la química desde la antigüedad. Y es que para pensar matemáticamente no hacen falta números. Veamos un ejemplo.

La tabla de afinidades de Geoffroy



Siguiendo la filosofía cartesiana del XVII, varios filósofos naturales y matemáticos franceses desarrollaron la idea de un conocimiento químico racional y matematizado. Así, Bernard le Bovier de Fontenelle, el secretario a la sazón de la Académie des Sciences desde 1697, afirmaba en su introducción a la Histoire de l'Académie royale des sciences (1702) que:

“las matemáticas no sólo han producido una infinitud de sus propias verdades, sino que también han producido en las mentes con bastante generalidad un hábito de exactitud y precisión incluso más precioso que todas estas verdades”.

En ese mismo texto de Fontenelle sugería la idea de matematizar la química como se había hecho con la geometría (se refiere a la geometría analítica cartesiana), con objeto de poder hacer predicciones. El programa subyacente era legitimar la química como la parte teórica de la “vulgar farmacia” y como compañera respetable de los médicos y su arte.

Un miembro de este grupo de filósofos naturales fue Etienne-François Geoffroy, el mismo médico, farmacéutico y químico. Geoffroy es conocido hoy día por la introducción en 1718 de la Table des differents rapports observés entre differentes substances (Tabla de las diferentes relaciones observadas entre diferentes sustancias). Geoffroy quería una tabla en la que uno pudiese ver “de un vistazo” las diferentes relaciones de las “principales materias con las que uno acostumbra a trabajar en química”. La tabla pronto se convirtió no sólo en una colección de información sino también en una herramienta para predecir sales y sus reacciones químicas.

Continúa leyendo en el Cuaderno de Cultura Científica

martes, 15 de octubre de 2013

Primer cuasicristal no metálico


Un equipo de investigadores encabezados por Stefan Förster de la Universidad Martin Lutero en Halle-Wittenberg (Alemania) ha descubierto el primer cuasicristal en un óxido. El descubrimiento aparece publicado en Nature.

Sólo se conoce un ejemplo de cuasicristal natural. Fue encontrado en 2009 por el investigador Paul Steinhardt, de la Universidad de Princeton, en las remotas montañas Koryak (en el extremo oriental de Siberia, al noreste de la península de Kamchatka), en una odisea digna de Indiana Jones. El cuasicristal de Steinhardt es una aleación de aluminio, hierro y cobre. Y es que es muy llamativo que todos los cuasicristales conocidos, desde que Dan Shechtman los descubriese a principios de los años ochenta del siglo pasado, sean aleaciones metálicas fabricadas todas, menos la natural, cuidadosamente en el laboratorio. Hasta ahora.

El óxido en cuestión pertenece a la familia de las perovskitas y se trata de un titanato de bario (BaTiO3). Las perovskitas tienen una estructura cristalina lo suficientemente particular como para dar nombre a un grupo (en realidad es ortorrómbico o pseudocúbico; una mezcla de cubos y rombos, para entendernos) pero, eso sí, son manifiestamente cristalinas; es decir, presentan orden a corto y a largo. Son unos materiales muy estudiados por sus aplicaciones en superconductividad o en paneles solares, por ejemplo.

Sin embargo, cuando Förster y sus colegas depositaron una capa fina de titanato de bario sobre una superficie de platino con simetría (1,1,1) que presenta ejes de simetría ternarios (es un sistema cúbico centrado en las caras), encontraron que en la interfase entre la perovskita y el platino aparecía una simetría dodecagonal, una de las llamadas simetrías prohibidas, para un espesor de 0,4 nm. Los datos fueron confirmados por una combinación de técnicas muy potentes: desde microscopía de efecto túnel para el rango corto a difracción de electrones para el largo.

La simetría dodecagonal encontrada

¿Cómo es esto posible?¿Cuál es el mecanismo?¿Ocurre algo parecido en otros materiales?¿Son los cuasicristales más comunes de lo que pensamos y se trata sólo de buscar el par compuesto-sustrato adecuado?¿Qué efecto podrá tener esto en la nanociencia de materiales? El que lo averigüe puede aspirar a publicar donde quiera, incluido Nature.

Referencia:

Förster S., Meinel K., Hammer R., Trautmann M. & Widdra W. (2013). Quasicrystalline structure formation in a classical crystalline thin-film system, Nature, 502 (7470) 215-218. DOI:

Esta entrada es una participación de Experientia docet en la XXVIII Edición del Carnaval de Química que organiza Flagellum  




Imponderable: el primer modelo estándar de la física


Cuando los humanos nos enfrentamos a algo complejo usamos analogías con otra cosa que nos es familiar. Estas analogías cambian con el tiempo y la evolución de la técnica y nuestra familiaridad con nuevos dispositivos. Así, por ejemplo, el funcionamiento del encéfalo humano a mediados del siglo XX se asemejaba a una centralita de teléfonos, mientras que hoy se suele comparar con un ordenador. En el siglo XVIII y a comienzos del siglo XIX las semejanzas se hacían con dispositivos mecánicos en general. Fenómenos tan novedosos como la electricidad o el estudio del calor encontraron pronto acomodo en la analogía con las conducciones de agua.

Esta analogía para la electricidad puede trazarse hasta un momento preciso. En 1729 Stephen Gray descubrió que un hilo empapado conduce la electricidad, por lo que de ahí a asimilar el agente de la electricidad con agua corriendo por una tubería había un paso. Esta analogía se vería completada poco después por la comparación que hizo Benjamin Franklin entre las máquinas que se usaban para generar electricidad (en esta época poco más que cilindros y esferas de cristal que se frotaban, esto es, generadores electrostáticos rudimentarios) y las bombas impulsoras y entre las botellas de Leyden (los primeros condensadores) y los embalses.

Para aquellos que aceptaron la versión de Robert Symmer (1759) de la teoría de Franklin en la que las cargas negativas eran tan reales como las positivas, en la electricidad participaban dos fluidos que, dado que los cuerpos cargados pesados pesaban tanto como los neutros, se asumía que tenían un peso no medible, esto es, eran imponderables. Se iniciaba así la construcción de un modelo, el modelo imponderable, que llegaría al siglo XX.

Continúa leyendo en el Cuaderno de Cultura Científica

lunes, 14 de octubre de 2013

Quantum13: Taller de comunicación científica

El taller tuvo lugar en el Centro de Física de Materiales (UPV/EHU-CSIC)

Esta es la segunda parte (1 hora 46 minutos) del taller de comunicación científica que se celebró en Bilbao y San Sebastián con motivo de Passion for Knowledge - Quantum13, y que impartió un servidor. En ella se trata de cómo plantear la comunicación científica desde el punto de vista estratégico, ya sea a la hora de publicar un artículo especializado o una anotación en un blog de divulgación. El taller está pensado para aquellos que se inician en el mundo de la comunicación en general y de los blogs de ciencia, en particular.




La primera parte, a cargo de José Ignacio Latorre, está disponible aquí.

domingo, 13 de octubre de 2013

Gustave le Bon y la equivalencia materia-energía



Si preguntamos a cualquier persona con una mediana formación científica sobre quién fue el primero en proponer la equivalencia entre masa y energía, nos respondería inmediatamente y sin vacilación que Albert Einstein. Puede que incluso nos diese la fecha (1905) y hasta la expresión matemática, E = mc2. Sin embargo, puede que no sea tan evidente. Y es que Gustave le Bon tuvo una magnífica intuición poco antes.

Gustave le Bon nació en 1841 en Nogent-le-Rotrou (Francia) y se doctoró en medicina en 1866 en la Universidad de París. En la actualidad se le conoce por sus trabajos en psicología de grupos y en sociología (hay quien le considera uno de los fundadores de esta disciplina), pero también escribió sobre astronomía, física y cosmología. Según le Bon el universo material habría aparecido a partir del éter primordial e imponderable y terminaría regresando a este estado, en una serie de ciclos sin fin. Como parte de este concepto incluía la equivalencia de materia y energía.

En 1896 le Bon anunció que había descubierto lo que llamó “luz negra”, un nuevo tipo de radiación invisible que él creía que estaba relacionada posiblemente con los rayos X y los rayos catódicos pero que era distinta a éstos. Sus afirmaciones atrajeron la atención de los físicos, fundamentalmente franceses, muchos de los cuales le dieron su apoyo en el descubrimiento así como a sus ideas sobre la materia, la radiación y el éter. Aunque al final la existencia de la “luz negra” fue descartada (no se pudieron reproducir sus resultados en condiciones controladas) durante un tiempo permitió que le Bon fuese una figura importante en la vida intelectual y científica francesa. En 1903 fue incluso nominado para el Nobel de física. Entre sus amigos y admiradores se encontraban científicos de primer nivel, incluyendo el químico Henri Ferdinand-Frédéric Moissan, el astrónomo Henri Alexandre Deslandres y los matemáticos Charles Émile Picard y Jules Henri Poincaré. Pero lo que nos interesa ahora es que en sus escritos sobre la “luz negra” estaba la primera descripción cualitativa de la equivalencia entre materia y energía.

Le Bon expuso sus ideas más elaboradamente en “La evolución de la materia” (texto completo en francés, en inglés), un libro publicado, mire usted, en 1905. En él concluía que toda la materia es inestable y está degenerando, emitiendo constantemente radiación en forma de rayos X, radioactividad y “luz negra”. Las características de la materia serían epifenómenos que aparecerían durante el proceso de transformación en éter, informe e imponderable, del que había surgido. Según le Bon, la energía y la materia eran dos aspectos de la misma realidad, diferentes etapas en el gran proceso evolutivo que en un futuro lejano llevaría al universo a un estado puramente etéreo.

Su principal argumento para la continua degradación de la materia en éter era la radioactividad, que él consideraba que era algo que toda la materia exhibía en mayor o menor grado. Pero le Bon, llevaba esta idea a sus últimas consecuencias. Si todos los elementos emiten radiación por la radiactividad, todos terminarían desapareciendo, por tanto la materia, en última instancia, no se explicaría en términos materiales sino etéreos. Paradójicamente, el estudio de la materia llevaba al inmaterialismo, algo muy bien recibido por determinados círculos intelectuales del fin de siglo francés.

Le Bon tomó su versión de la evolución cósmica de la hipótesis nebular de Laplace, pero la revistió con el lenguaje de la entonces popularísima física del éter. Y, sin embargo, el éter no era para le Bon el último estadio final, ya que sugería que este fin del universo sería seguido de un renacimiento y posterior evolución, y que este proceso cíclico continuaría eternamente.

Probablemente lo más interesante de su argumento es que afirmaba que todos los átomos contenían enormes cantidades de energía que se iría liberando conforme los átomos se desintegrasen, y que esta energía “intra-atómica”, como él la llamaba, era la fuente del calor solar y de todas las otras fuerzas del universo. Incluso empleaba cálculos (elementales) de energía cinética (T = mv2/2) para encontrar órdenes de magnitud de esas energías. Cuando Einstein se hizo famoso por su demostración de que la masa y la energía eran equivalentes según E = mc2 , le Bon reclamó parte del mérito para él. En 1922 escribió cartas a Einstein informándole de lo que él consideraba su prioridad en el descubrimiento de la reciprocidad de la masa y la energía. Ni que decir tiene que para esta época sus ideas estaban completamente desfasadas.

Esta entrada es una participación de Experientia docet en la XLV Edición del Carnaval de la Física que acoge Cuantos y cuerdas.

Gustavo me puso sobre la pista de le Bon en un comentario en esta entrada. Muchas gracias.

viernes, 11 de octubre de 2013

miércoles, 9 de octubre de 2013

Charla en Quantum13: "Bohr no fue el primero"



El pasado día 4 tuve el privilegio de dar una charla Naukas titulada "Bohr no fue el primero" durante las jornadas Passion for Knowledege - Quantum13 en un marco incomparable, el teatro Victoria Eugenia de San Sebastián. Un reto ya que fui el primero tras una conferencia de Amand Lucas y, entre el público, premios Príncipe de Asturias, Nobel y profesores e investigadores de la UPV/EHU, el DIPC, el CFM, Tecnum, nanoGUNE y demás centros donostiarras (y de otros barrios de Bilbao).

La charla es un resumen de un artículo que he escrito para los Anales de la Real Sociedad Española de Química que aparecerá presumiblemente en el próximo número, en el que se recogen los resultados de casi un año de investigación sobre el origen del modelo de Bohr, llegando a algunas conclusiones sorprendentes. Próximamente se publicará en el Cuaderno de Cultura Científica una versión en texto con los contenidos de la charla. De ambas publicaciones informaremos aquí.

La charla (y todas las demás de Naukas) puede verse siguiendo este enlace.

Esta entrada es una participación de Experientia docet en la XXVIII Edición del Carnaval de Química que organiza Flagellum


martes, 8 de octubre de 2013

Galileo vs. Iglesia Católica redux (y VII): Balanzas


Antes de afrontar las conclusiones de nuestra exploración de la interacción entre Galileo y la Iglesia Católica [IC] quizás sea conveniente repasar algunas ideas que hemos ido encontrando en capítulos anteriores de esta serie y que serán relevantes para lo que sigue.

En primer lugar, el tiempo. En Antecedentes vimos cómo la IC en el siglo XVII tenía una dilatada historia de tolerancia (tolerancia no significa aceptación) con los nuevos descubrimientos científicos, los de Galileo llegaron en un momento en el que la IC era menos tolerante de lo que podría haber sido en otras circunstancias debido a la reacción a la Reforma Protestante.

Posteriormente, comentamos en Perspectivas que en la época en la que se produjeron, los descubrimientos de Galileo no podían zanjar la cuestión entre geocentrismo y heliocentrismo. Para ilustrarlo, en Observaciones y Venus, mostramos cómo las observaciones de Galileo, si bien suponían un reto a Aristóteles y Ptolomeo, seguían siendo compatibles con un sistema como el de Tycho, además de uno heliocéntrico.

A continuación vimos la importancia que tenían las consideraciones instrumentalistas y realistas a la hora de enseñar el sistema de Copérnico en Reconvención.

Finalmente en Visiones, pudimos ver que Belarmino y Galileo coincidían en la consideración de una serie de pruebas como verdaderas, entre ellas las propias observaciones de Galileo y las Escrituras.

El conflicto queda reducido a una cuestión de peso, de la importancia que se le atribuye a cada una de las pruebas. Galileo piensa que las Escrituras son indudablemente correctas en lo que se refiere a las cuestiones que tienen que ver con la salvación. Pero, en otras cuestiones, aquellas que no conciernen a la salvación, no sería necesario tomarlas como indiscutibles. Y ya que, desde la perspectiva de Galileo, el que la Tierra o el Sol ocupen el centro del universo no es una cuestión relevante para la salvación, ésta es una de esas cuestiones en las que las observaciones con el telescopio pesan más que lo que digan las escrituras.

Continúa leyendo en el Cuaderno de Cultura Científica

Primera imagen por AFM de un enlace de hidrógeno


¿Qué es un enlace químico? A estas alturas de la película debería ser una cuestión trivial. Pero no lo es tanto*. De hecho no existe una definición precisa, lo que abre las puertas a consideraciones varias en filosofía de la química. Por si no fuese suficientemente confuso, ahora, un grupo de investigadores encabezado por Jun Zhang, del Centro para la Nanociencia y la Tecnología de la Academia China de Ciencias, publica en Science las primeras imágenes de enlaces de hidrógeno. Estos enlaces se consideran en los libros de texto como poco menos que ficticios y se explican habitualmente como meras interacciones electromagnéticas. Sin embargo, los últimos resultados con difracción de rayos X indicaban que serían “auténticos” enlaces; el resultado de Zhang et al. viene a añadir leña al fuego.

Los enlaces de hidrógeno son fundamentales para algunas de las moléculas y muchos de los procesos más importantes para la vida. Así, son los responsables de mantener unidas las dos hebras de la hélice del ADN y muchas enzimas realizan su función de catalizar reacciones haciendo uso de ellos. Una idea intuitiva de lo que es un enlace de hidrógeno es que es una fuerza atractiva entre átomos de distintas moléculas, uno de ellos un hidrógeno unido a un átomo muy electronegativo, con lo que deja al protón del núcleo de hidrógeno “sin el amparo de su electrón” y este protón se ve atraído por los electrones de un átomo electronegativo de otra molécula.

Zhang et al. usaron un microscopio de fuerza atómica (AFM) con el método de no-contacto de Fischer para estudiar la 8-hidroxiquinolina. Esta molécula tiene la particularidad de que es plana pero los enlaces de hidrógeno que pueda formar quedan fuera de ese plano, lo que incrementa su visibilidad.

Como podemos ver en la imagen, los enlaces de hidrógeno son visibles, más débiles que los “oficiales” covalentes de línea continua, pero visibles. Con esto volvemos al principio, ¿qué narices es un enlace químico?

Más detalles en Chemistry Views

*Por ejemplo, si hubiese que creer a la Wikipedia en español (cosa que, con honrosas excepciones, no es recomendable) un enlace químico es “un proceso”. Pero según la Wikipedia en inglés es “una atracción”, según la Wikipedia en francés “cualquier interacción atractiva”, y para la Wikipedia en alemán es “un fenómeno fisico-químico”.

Referencia:

Zhang J., Chen P., Yuan B., Ji W., Cheng Z. & Qiu X. Real-Space Identification of Intermolecular Bonding with Atomic Force Microscopy, Science, DOI:

Esta entrada es una participación de Experientia docet en la XXVIII Edición del Carnaval de Química que organiza Flagellum


Los putti, los jesuitas y la ciencia


Pedro Pablo Rubens llenaba sus lienzos con “putti”. Estos niños angelicales ayudaban a la gente a llegar al cielo, se sentaban en las cornisas de los edificios tocando instrumentos musicales, volaban desplegando pancartas, y llevaban los instrumentos de tortura a los mártires.

Eran seres ágiles, hábiles, buenos por naturaleza y, en general, bastante listos y despiertos. Características todas ellas ideales para un ayudante de laboratorio. Por ello no es de extrañar que en los dibujos que realizó para Opticorum libri sex philosophis juxta ac mathematicis utiles, de François d'Aguilon (1613) Rubens optara por los putti para esta función. Así podemos verlos examinando el ojo del Cíclope, midiendo el Coloso de Rodas, aprendiendo las sutilezas de la visión binocular, demostrando la horóptera, usando el primer fotómetro, o demostrando cómo se realiza la proyección estereográfica. 

Los jesuitas, orden a la que pertenecía d'Aguilon, se dieron cuenta rápidamente de la utilidad de usar ángeles en los experimentos. Dos razones podrían explicar el uso frecuente de esta iconografía inusual. En primer lugar, la aparición de putti en un nuevo entorno, emergente y amenazante, como era la filosofía natural en el siglo XVII permitía hacerla más familiar y, de alguna forma, domesticarla, recordando que al final era Dios el que lo dirigía todo. Por decirlo gráficamente, si los angelotes tenían a bien jugar con barómetros, la investigación experimental de la atmósfera no podía de ninguna de las maneras amenazar ni al estado ni a la Iglesia. El uso de putti sería pues un mensaje tranquilizador hacia las autoridades.

Continúa leyendo en el Cuaderno de Cultura Científica

lunes, 7 de octubre de 2013

Ética normativa y evolución: de obra de Dios a ilusión



En las últimas décadas muchos trabajos de investigación se han centrado en intentar dilucidar el origen de nuestros comportamientos éticos, qué ventajas dichos comportamientos habrían tenido en el pasado de la especie o cómo pueden utilizarse, como de hecho se usan, por parte de vendedores, publicistas y demás profesionales de la influencia. Pero ¿pueden las consideraciones evolutivas arrojar algo de luz sobre cómo debemos comportarnos?

Existe un argumento bastante común que concluye que la respuesta a nuestra pregunta es un rotundo y sonoro “no”. Pero, por otra parte, recientemente algunos pensadores han aportado argumentos a favor del “sí”. En lo que sigue exploraremos someramente la interacción entre evolución y ética normativa. En primer lugar nos centraremos en un argumento tradicional que concluye que las consideraciones evolutivas no pueden aportar nada sobre la ética normativa. Después conoceremos brevemente dos posiciones contrarias, pero que, además, llegan a conclusiones opuestas sobre las implicaciones que las consideraciones evolutivas tienen para la ética normativa.

Galileo vs. Iglesia Católica redux (VI): Visiones


Con todo lo que llevamos explorado en esta serie podemos ver que el debate Galileo – Iglesia Católica [IC], por la parte que compete a la filosofía de la ciencia (y no a la sociología) se reduce a dos cuestiones. La primera es si Belarmino estaba tratando realmente la visión geocéntrica como no falsable; quizás convenga recordar que la falsabilidad no es una característica intrínseca de las hipótesis, sino la actitud con la que se tratan dicha hipótesis. La segunda, íntimamente relacionada con la primera, es que, reconociendo ambas partes la existencia y validez de las mismas pruebas (Escrituras y observaciones), la discusión se reduce a qué pruebas pesan más; recordemos también que de ninguna de las observaciones de Galileo se deduce necesariamente la certeza de la visión heliocéntrica. Ambas cuestiones ilustran problemas recurrentes en el desarrollo de la ciencia, de ahí el interés en reflexionar sobre ellas.

Veamos con un poco de mayor profundidad los puntos de vista de Galileo y Belarmino. 

Conforme se desarrollaba la discusión, tanto Galileo como Belarmino terminaron expresando sus puntos de vista por escrito. El de Belarmino donde quizás mejor se recoja sea en la denominada Carta a Foscarini [CF], de 1615. El de Galileo aparece en partes de un texto más largo conocido como Carta a la Gran Duquesa Cristina [CGDC]también de 1615 (esta Cristina, por cierto, era un miembro prominente de la familia Medici, y a Galileo le convenía especialmente que estuviese convencida de que sus puntos de vista no eran heréticos).

Continúa leyendo en el Cuaderno de Cultura Científica

domingo, 6 de octubre de 2013

La prematura muerte de Lord Rutherford


El paciente había llegado a la puerta de urgencias del Evelyn Nursing Home quejándose de fuertes dolores abdominales. Unos síntomas que algunos de los mejores médicos del Reino Unido que trabajaban en este hospital de Cambridge hubiesen podido afrontar sin problemas. En principio, el paciente no podría haber estado en mejores manos en ningún otro lugar del planeta ese noche del 14 de octubre de 1937, salvo si eras Ernest Rutherford, The Lord Rutherford of Nelson, primer barón Rutherford. Y es que en 1937 en el Reino Unido sólo un par del reino podía tocar a otro par: sólo un sir/lord podía tocar el cuerpo de un lord. Y en Cambridge ningún médico era lord; ni siquiera sir.

Los médicos suministraron calmantes generales a Rutherford pero, sin poder inyectarle, podían ser sólo orales y no demasiado fuertes, porque no tenían un diagnóstico. Mientras, el hospital mandó aviso urgente inmediatamente a Harley Street (Londres) para que Sir Thomas Peel Dunhill, el cirujano del rey desde 1928, acudiese a Cambridge.

Dunhill llegó poco después del mediodía. Tras examinar al paciente diagnosticó una hernia umbilical estrangulada. Eso significaba que había partes del intestino de Rutherford sin riego sanguíneo en las últimas 20 horas: lo más probable es que parte de ese intestino hubiese muerto por asfixia y hubiese comenzado a pudrirse dentro del cuerpo del lord. Había que operar inmediatamente.

La operación comenzó avanzada la tarde. Al principio hubo bastante optimismo, pero la necrosis había sido mayor de lo esperado lo que, unido al shock que suponía la propia intervención, tuvo consecuencias fatales. El 19 de octubre de 1937, con 66 años, moría prematuramente uno de los científicos más grandes de todos los tiempos. En cierto modo, murió de éxito.



Esta anécdota la conocí el jueves pasado, durante Passion for Knowledge – Quantum 13, mientras viajábamos desde Bilbao a San Sebastián bajo un tremendo aguacero un grupo de ponentes. Tuve el privilegio de que me la contase Dudley Herschbach, un premio Nobel de química con un patente sentido del humor:

Foto: Cristina Juesas @Maripuchi


Herschbach aparece en este episodio de Los Simpsons haciendo entrega del Nobel al Profesor Frink.