martes, 30 de octubre de 2012

La dinámica neocortical discreta y los captchas de Blogger.




Si, cuando acabes de leer esta entrada, quisieras dejar un comentario tendrías que demostrar que no eres una máquina. Para ello el sistema te pedirá que identifiques dos imágenes, una fotografía de un número y una palabra distorsionada. Y tú, concentrándote un poco, eso sí, no deberías tener mayor problema en hacerlo. Sin embargo, una máquina no podría. ¿Por qué? Porque nuestro cerebro resuelve categorías y las máquinas, de momento, no pueden. Pero, ¿cómo lo hace? Un estudio reciente arroja algo de luz sobre el asunto.

¿Cómo puedes reconocer la cara de una amiga independientemente de las condiciones de luz, de cómo lleve el pelo o del maquillaje? ¿Cómo las personas que conocían a Dora Maar la reconocían en el retrato que Picasso hizo de ella en 1937 y que abre esta entrada? ¿Cómo es que oímos las mismas palabras independientemente de que las pronuncie un varón o una mujer, un adulto o un niño, gritando o susurrando? El cerebro humano tiene la asombrosa capacidad, aunque estemos tan habituados a ella que nos parece lo más normal del mundo, de convertir una avalancha de datos sensoriales en una serie de categorías y objetos definidos. Esta capacidad de crear invariantes en un mundo cambiante es extremadamente difícil de reproducir en una máquina. Por eso funcionan los captcha.

Brice Bathellier, del Instituto de Investigación en Patología Molecular (Austria), encabeza un estudio que demuestra que son determinadas características de las redes neuronales del cerebro las responsables de la formación de estas categorías. Los resultados se publican en Neuron.

Los investigadores produjeron una serie de sonidos y controlaron la actividad de agrupaciones de neuronas del córtex auditivo mediante microscopía de dos fotones/calcio, una técnica que combina la microscopía de fluorescencia de 2 fotones con los efectos que en la fluorescencia de las tinciones usadas tiene la presencia de iones de calcio y que permite el análisis en tiempo real de circuitos neuronales intactos con una resolución de células individuales. Encontraron que grupos de 50 a 100 neuronas mostraban un número limitado de patrones de actividad en respuesta a los diferentes sonidos.

A continuación seleccionaron dos sonidos base (A, B) que producían diferentes patrones de respuesta y construyeron mezclas (combinaciones lineales aA+bB) de ambos. Cuando el ratio (a/b) de la mezcla se hacía variar continuamente la respuesta no era un cambio continuo en los patrones de actividad de las neuronas sino, por el contrario, una transición brusca.

Este tipo de comportamiento dinámico recuerda el de las redes artificiales con atractores. Una red con atractores es una red que evoluciona hacia un patrón estable con el tiempo. Las redes con atractores se usan en neurociencia computacional para modelar procesos neuronales como la memoria asociativa y el comportamiento motor, así como en métodos de aprendizaje de máquinas de inspiración biológica. Este tipo de redes se había propuesto como solución al problema de la categorización por parte de algunos especialistas en inteligencia artificial.

Experimentos posteriores monitorizando el comportamiento de los ratones confirmaron estos resultados. Se entrenó a un grupo de ratones a discriminar entre dos sonidos. Se les exponía entonces a un tercer sonido y se seguía su reacción. Los experimentadores eran capaces de predecir cuantitativamente el comportamiento de los ratones a partir de los patrones de actividad cortical, dependiendo de si la reacción al tercer sonido era más parecida al primer o al segundo sonido, lo que indicaría una similitud en la percepción.

Estos resultados indicarían que estados de red discretos podrían ser el sustrato para la formación de categorías. Los autores sugieren que la estructura jerárquica de las representaciones discretas podrían ser esenciales para la funciones cognitivas más elaboradas como el procesamiento del lenguaje.

Referencia:

Bathellier B, Ushakova L, & Rumpel S (2012). Discrete neocortical dynamics predict behavioral categorization of sounds. Neuron, 76 (2), 435-49 PMID: 23083744

jueves, 25 de octubre de 2012

La geometría del hombre gordo.



Robert se sobresaltó con el timbre del teléfono a pesar de llevar esperando casi media hora desde que solicitase la conferencia.

  • Profesor, el profesor...eerr...Johnny, al habla

Robert pasó por alto la falta de protocolo de su secretaria. Nadie se sentía a gusto con el apellido de Johnny.

  • Johnny, aquí Robert...Sí,sí, todos bien. John, deja lo que estés haciendo y vente para aquí. Te necesitamos....Sí...Sí...Si no fuese urgente y de extrema importancia no te lo pediría de esta manera....Eso no puedo prometértelo...Sabes que no puedo darte más información por teléfono...De acuerdo, será solo una consulta para resolver este problema concreto. Estate tranquilo, sé como trabajas. Tendrás lo que necesites....Sí, ¡ja, ja! Tendrás un documento con el problema planteado y todos los condicionantes esperándote....Bien, sí, ¡ja,ja! Te veo dentro de tres días...Ah, y Johnny, ¡köszönöm!

El buen humor de la conversación se disipó pronto. Robert estaba en un callejón sin salida y recurrir a Johnny era su as en la manga. Su único as. Si Johnny no encontraba una solución, y pronto, todo el trabajo que estaban haciendo sería un auténtico desperdicio de talento, dinero y tiempo. Sobre todo de precioso tiempo.

Sabía que Johnny estaba al tanto del Proyecto en líneas muy generales, pero no de los últimos desarrollos ni de los condicionantes no puramente técnicos, así que se dispuso a prepararle un pequeño informe, suficientemente exhaustivo, para que se ubicase rápidamente tanto él dentro del Proyecto, como el problema en el contexto del desarrollo.

Informe de situación

ALTO SECRETO

Nos falta uranio apropiado 
Tenemos localizados cuatro depósitos importantes de mineral de uranio: Colorado, norte de Canadá, Joachimstahl y el Congo Belga. Todos menos Joachimstahl están en manos aliadas. Un estudio que realizamos en 1942 afirmaba que había suficientes cantidades de uranio para satisfacer las necesidades del proyecto. Pero esto no es así por motivos técnicos. Paso a ponerte en antecedentes. 
A comienzos del siglo pasado el mineral de uranio se recuperaba como subproducto en minas de Sajonia, Bohemia y Cornualles. La primera extracción específica de menas radioactivas tuvo lugar en Jáchymov, que los nazis llaman por su nombre alemán, Joachimthal, un lugar conocido por su minería de la plata. Curie usó pecblenda de Jáchymov para aislar el radio que, como ahora sabemos, es un producto de la desintegración del uranio. 
La extracción se produce en estos lugares por el contenido en radio. Como seguramente sabes el radio contenido en las menas de uranio se usa para hacer pintura luminosa para los diales de los relojes y otros instrumentos. El uranio es un subproducto que se viene usando como pigmento amarillo. 
En los Estados Unidos la primera mena de radio/uranio fue descubierta en 1871 en una mina de oro cerca de Central City, en Colorado. Sin embargo la mayor parte se produce en la meseta del Colorado, entre Utah y Colorado, asociada a la extracción de vanadio. Aquí compramos oficialmente vanadio, pero pedimos que no lo purifiquen. Nosotros separamos después el mineral de uranio. No es un sistema muy rentable. Las concentraciones de uranio son bajas. 
Otra fuente de suministro es Port Radium, cerca del lago Gran Oso, en Canadá, donde Eldorado Mining and Refining Limited tiene grandes cantidades de residuos como consecuencia de su extracción de radio. 
Estos minerales de uranio se encuentran en rocas sedimentarias, por lo que no tienen mucho rendimiento para nosotros. 
Desde el punto de vista del rendimiento es mucho más interesante un depósito precámbrico que hay en Katanga, en el Congo Belga, descubierto en 1913, que explota la Union Minière du Haut Katanga. Nuestros amigos ingleses nos han tenido que echar una mano para conseguir que reabrieran la mina, que estaba inundada, y comenzasen a suministrarnos. 
Pero si obtener uranio nos está costando trabajo, obtener el que nos interesa mucho más. El uranio consiste en un 99,3% de uranio-238 y un 0,7% de uranio-235, pero sólo este es fisible. Ambos isótopos son químicamente idénticos y tenemos que separar el U-235 del U-238. En Oak Ridge y aquí nos hemos devanado los sesos ideando métodos de separación. 
El método más obvio, la centrifugadora, falló desde el primer momento. Ahora estamos usando separación electromagnética, difusión gaseosa y difusión térmica. A Groves se le ocurrió la idea de que el producto de una planta fuese la materia prima de otra, por lo que te puedes hacer una idea de la productividad. Tras todos estos años y esfuerzos no tenemos ni 50 kg. Con estas limitaciones no podemos ni plantearnos hacer pruebas.
La alternativa
Nos planteamos entonces aprovechar la disponibilidad de U-238 para obtener plutonio-239 que también es fisible. En un reactor nuclear bombardeamos uranio natural con neutrones. El U-238 se transmuta en U-239, que se desintegra rápidamente, primero en Np-239 y después a Pu-239. De supervisar todo esto se están encargando Fermi y Compton en un juguetito que se han construido en Oak Ridge al que llaman reactor de grafito X-10.
El problema es que sólo se transforma una pequeña cantidad de U-238, por lo que tenemos que separar el Pu-239 químicamente del uranio que no ha reaccionado, de las impurezas iniciales y de otros productos de fisión. De esto se han encargado Seaborg y Thomson con un proceso que llaman del fosfato de bismuto (otro dolor de cabeza que no viene al caso que te cuente ahora). Lo que hacen es jugar con los estados de oxidación del plutonio +4 y +6 en disoluciones de fosfato de bismuto. En las condiciones en las que el estado es +4 el plutonio precipita; en las que es +6 se queda en disolución y todo lo demás precipita. Ya te haces una composición de lugar.
Todo este trabajo con el plutonio se basaba en las propiedades que habíamos estudiado con plutonio-239 fabricado en un ciclotrón. Este Pu-239 era extremadamente puro y sólo lo pudimos crear en cantidades muy pequeñas. Cuando recibimos el primer envío desde Oak Ridge Segrè se dio cuenta de que allí había más Pu-240 del deseable, con lo que teníamos un 500% más de riesgo de fisión espontánea que con el Pu-239 puro del ciclotrón. Cuando se lo comento a Seaborg, va y me recuerda un informe que hizo hace más de un año en el que predecía que el Pu-239 puede absorber un neutrón y convertirse en Pu-240. Que él, desde el punto de vista químico, se lava las manos: si separar U-235 del U-238 era dificilísimo, separar Pu-239 del Pu-240 es prácticamente imposible.
En el dispositivo que tenemos diseñado para el U-235, que es una especie de tubo de cañón, tenemos separadas masas de material fisible que en el momento de activación son empujadas la una contra la otra por explosivos convencionales. Pero esto no lo podemos hacer con el plutonio, porque en cada trozo se podría perder suficiente energía como para dispersar la masa crítica con sólo que se desintegrase un poco de plutonio.


El problema
Necesitábamos un diseño alternativo. Neddermeyer propuso el de la implosión que, después de estudiarlo concienzudamente, nos parece viable y, a decir verdad, nuestra única esperanza de ser capaces de producir más de un dispositivo. En este método usamos explosivos para compactar una estructura subcrítica de material fisible en una forma más pequeña y densa. Cuando los átomos fisibles están empaquetados más densamente el ratio de captura neutrónica aumenta y la masa pasa a ser masa crítica. Como, en el caso que nos plantemos, el Pu-239 tiene que desplazarse un trayecto muy corto dentro del dispositivo y se mantiene a baja densidad, disminuimos la probabilidad de que se produzcan las pérdidas fatales que origina el otro método.
Las investigaciones de Neddermeyer apuntan a que vamos en la buena dirección. Pero las dificultades teóricas e ingenieriles son mucho más complejas de lo que anticipamos. Estamos colapsados. Adjuntos encontrarás los informes de Neddermeyer y los datos que puedas necesitar.
Post scriptum:
Prefiero ponerte aquí por su importancia una pequeña nota sobre normas que sí debes memorizar y cumplir a rajatabla. Las otras te las adjunto y son las habituales de seguridad en instalaciones militares de alto secreto que ya conoces.


Higiene en las instalaciones
Debes evitar todo contacto con el material fisible o sus contenedores. Debes usar bata, guantes y mascarilla si entras en el laboratorio. Se ha detectado en trabajadoras de empresas de relojería que pintan con radio muchos casos de cáncer. Muller publicó en 1927 que la radiación produce mutaciones genéticas. Además puede quemar la piel con facilidad. Las dosis altas de radiación son incompatibles con la vida.
  • Estás seguro, Robert, ¿un matemático?
  • Seguro, Groves. Si Johnny no lo resuelve, no lo resuelve nadie.

Hacía sólo dos horas de esa conversación y Robert la rememoraba, nervioso, mientras esperaba en la estación. Nunca antes había dependido tanto su carrera de otra persona.

Johnny bajó del tren con su traje de tres piezas impecable más propio para uno de los típicos tés de Princeton, a pesar de venir al desierto de Nuevo México. Tras los saludos habituales fueron directamente al grano. Johnny leyó el informe en el coche y ojeó los documentos adjuntos durante media hora. Después se quedó mirando el paisaje en silencio. Silencio que Robert respetaba; sabía que Johnny estaba pensando. Cuando ya divisaban las cercas del complejo Johnny habló:
  • Necesitaré un sitio tranquilo en el que trabajar. Donde nada ni nadie me moleste. Y necesitaré a las dos mejores computadoras, y por mejores entiendo que hagan sus cálculos bien a la primera, con rapidez y pulcritud.
  • Del lugar no te preocupes. Te he reservado un pequeño bungalow en el extremo de la base donde no te molestará nadie, yo me encargo de eso. Respecto a las computadoras le pediré a Feynman que las seleccione.
  • ¿El chico de Bethe? Bien.
  • Oye, Johnny, ¿por qué dos?
  • Porque existe la posibilidad de que genere ecuaciones al doble de velocidad de lo que una computadora competente pueda calcular. Y no pienso pasar mi tiempo aquí esperando a que alguien termine de sumar.
  • Ya veo. ¿Cuando quieres empezar?
  • Ya he empezado. Estoy convencido de que el problema es básicamente geométrico.
La noticia de que Johnny estaba en las instalaciones corrió como la pólvora. Robert tuvo que dar órdenes estrictas para que nadie se acercarse a saludarle, por muy amigo, compatriota o colega que fuese.

La luz en el bungalow de Johnny no se apagó esa primera noche hasta bien entrada la madrugada. Había mandado recado de que no necesitaría a las computadoras hasta las 7 de la mañana. A las 12 del día siguiente pidieron unos sándwiches de la cantina. A las 9 de la noche las computadoras, visiblemente agotadas, regresaron a sus habitaciones del pabellón de mujeres. Johnny seguía despierto a las 2 de la madrugada. Los guardas lo veían pasear arriba y abajo en el saloncito del bungalow estudiando lo que parecían ser los mismos papeles una y otra vez.
  • Profesor, eeer...Johnny está aquí.
  • Gracias, Anne. Pasa, pasa, Johnny. ¿Necesitas alguna cosa? Siéntate.
  • Sí, un coche que me lleve a la estación. Tal y como te dije es un problema puramente geométrico. Aquí tienes el resultado.
  • Pero...
  • Está más que comprobado. Funcionará. Sólo tienes que encontrar los explosivos de velocidades adecuadas. Kistiakowski es mejor que yo en eso. Dale este papel, él sabrá lo que tiene que hacer. Aquí tienes los cálculos y aquí mis conclusiones. Tu tubo de cañón se ha convertido en un hombre gordo, me temo. Léelas que me voy a casa, no aguanto el desierto.
El documento no podía ser más breve.

Conclusiones

No sólo estoy de acuerdo con que la implosión reduce el riesgo de predetonación, sino que además considero que hará un mejor uso del material fisible disponible.
Muchos de los problemas que Neddermeyer se ha encontrado surgen de usar una configuración cilíndrica. En documentos adjuntos encontrarás la demostración de que la geometría esférica es la óptima.
Recomiendo el uso de lentes explosivas para configurar una onda de choque implosiva que garantice una geometría esférica. Estas lentes explosivas están constituidas por explosivos de distinta velocidad, rápidos y lentos, cuya onda expansiva se combina hacia dentro para obtener la geometría buscada. Los parámetros a buscar experimentalmente están dentro de los rangos que te especifico en el documento adjunto.
Es muy probable que la configuración óptima, dependiendo de los explosivos disponibles y sus características, esté constituida por 20 hexágonos y 12 pentágonos alrededor del núcleo esférico de material fisible, según este esquema:

                                           

  • ¿Están claras?
  • Diáfanas.
  • Pues me voy. ¿Está el coche?
  • No vas a ver a los muchachos. Están deseando saludarte.
  • No, son demasiados. Ya he charlado un rato esta mañana con Ulam y Feynman y ya es suficiente para mí. Hasta nos han hecho una foto. Sólo diles que von Neumann estuvo aquí. Ellos entenderán.
                                                                       

Pasados los años Robert conservaba una copia de aquella foto. Representaba para él el momento cumbre del proyecto antes de la prueba, cuando supo que lo lograrían: en la foto aparecían sus muchachos agotados después de meses dando lo mejor de sí mismos y un genio venido de otro mundo que solucionaba con matemáticas lo que aquellos físicos y químicos brillantes metidos a ingenieros no alcanzaban.








Esta entrada es la modesta respuesta de Experientia docet al reto de redactar un texto con la capacidad de participar en 7 carnavales (matemáticas, física, química, biología, geología, tecnología y humanidades).

A efectos prácticos esta entrada es una participación de Experientia docet en la XVIII Edición del Carnaval de Química (en XdCiencia), en la XXXV Edición del Carnaval de la Física (en Últimas noticias del cosmos) y en la 3,1415926 del Carnaval de Matemáticas (en Series divergentes).





miércoles, 24 de octubre de 2012

De por qué la gasolina a partir de aire sólo la utilizarán los coches deportivos de los ecologuais.




Hace unos días el diario británico The Independent  lanzaba una exclusiva de la que se han hecho eco muchos otros medios, entre ellos la BBC, y webs ecologistas que tocan de oído, en la que relataba cómo una empresa británica era capaz de fabricar gasolina a partir del aire. También han aparecido automáticamente los conspiranoicos habituales que afirman que las petroleras no lo permitirán nunca, otros que afirman que se están violando leyes fundamentales de la física y aún otros que afirman que el proceso debería hacerse público para evitar su secuestro por las grandes compañías. Ejemplos de todo ello en los comentarios de esta entrada de NeoTeo.

Estamos ante un nuevo ejemplo de empresa en búsqueda de financiación para un producto ecológico, usando tecnologías conocidas, con mucha publicidad, relaciones públicas y atención de los políticos. Pues bien, de entrada, respondamos así de claro:
  1. El proceso fundamental se encuentra en cualquier libro de texto de química
  2. Lo que puede aportar novedad es la selección de la tecnología empleada de entre las disponibles 
  3. No se viola nada
  4. Esto, salvo sorpresa mayúscula, no va a ninguna parte
Pero veamos con algo de detalle el proceso que publica Air Fuel Synthesis en su web:

1. Se introduce aire en una torre donde existe un aerosol de disolución de hidróxido sódico. El dióxido de carbono del aire reacciona con parte del hidróxido sódico para formar carbonato sódico. Esta es una tecnología de captura de dióxido de carbono conocida y más que probada. Stolaroff et al. estimaron en 2008 que el coste de captura de la tonelada de dióxido de carbono, excluyendo la recuperación de la solución y otros costes operativos, era de un mínimo de 53 dólares y podía alcanzar los 127; los costes operativos no incluidos sólo de esta fase son del mismo orden de magnitud. Por tanto, podemos estimar conservadoramente que sólo esta fase cuesta 100 dólares por tonelada de dióxido de carbono capturado.

2. La disolución de hidróxido y carbonato de sodio obtenida en el paso 1 se bombea a una cuba electrolítica en la que se hace pasar una corriente eléctrica. La electricidad provoca la descomposición del carbonato con la liberación de dióxido de carbono. En este paso hay tres consideraciones trascendentes desde el punto de vista industrial. La primera, que se recupere eficientemente la disolución de hidróxido sódico, para ello la limpieza debe ser absoluta y el agua estar libre de iones que puedan precipitar como hidróxidos o carbonatos; segundo, relacionado con la primera consideración, el dióxido de carbono se liberará en forma de gas por lo que la celda debe estar cerrada y con un vacío previo si no queremos contaminaciones del producto; y tercero, esta disolución es muy corrosiva. Estos tres aspectos implican que el mantenimiento y la operación de esta fase son muy complejos, laboriosos y, por tanto, costosos. Es algo que a nivel de laboratorio se puede acometer con cierta facilidad pero que a nivel industrial es una pesadilla. Si añadimos el coste de la electricidad, ya ni te cuento.

3. Opcionalmente se puede instalar un deshumidificador que condense el agua del aire que se pasa por la torre en el paso 1. El agua condensada se pasa a una celda electrolítica donde una molécula muy estable se separa mediante electricidad en sus componentes hidrógeno y oxígeno. El agua se puede obtener de otras fuentes pero debe ser purificada para tener calidad electrolítica. Esta es la fase del proceso más cara energéticamente. Démonos cuenta de que la electrolisis del agua requiere sobrepotenciales para sobrepasar varias barreras de activación, por lo que la necesidad energética es mayor de la que se calcula a partir de la energía de las moléculas de agua. Es un proceso tan caro que es la principal barrera para la obtención de hidrógeno como fuente de energía. Un estudio del Departamento de Energía de los Estados Unidos calculó el objetivo de coste para un kilo de hidrógeno en 2012 en 3,70 dolares; en 2010 era de 5,21.

4. El dióxido de carbono y el hidrógeno se hacen reaccionar para conseguir una mezcla de hidrocarburos, variando las condiciones en función del tipo de combustible que se requiera. Lo que está muy bien y es muy bonito, pero veamos en realidad de qué se trata.

4.1 Convertir la mezcla de dióxido de carbono/hidrógeno en una mezcla de monóxido de carbono/hidrógeno conocida como gas de síntesis. El gas de síntesis es archiconocido por cualquiera que haya estudiado algo de química y mediante el proceso de Fischer-Tropsch, uno de esos que cae seguro en el examen, se obtiene el hidrocarburo líquido que quieras. Esta tecnología se conoce y se usa desde 1925. El problema radica en reducir el estable dióxido de carbono al reactivo monóxido de carbono, que no es algo tan sencillo. Conseguirlo de forma eficiente, igual que mencionábamos antes con el hidrógeno, ya sería un gran logro. Para dar una idea de la importancia y complejidad puede verse este artículo de Technology Review.

4.2 Una alternativa que, al igual que el proceso Fischer-Tropsch, es archiconocida, es hacer reaccionar el gas de síntesis para obtener metanol que se puede usar a su vez para obtener hidrocarburos con la reacción metanol-a-gasolina de Mobil. El problema continúa siendo obtener el monóxido de carbono.

5. Los productos obtenidos no pueden usarse directamente. Deben ser aditivados convenientemente para poder ser usados en los motores actuales.

Sólo con los costes de captura de dióxido de carbono y obtención de hidrógeno, sin nada más (y esa nada es enorme), resulta que el kilo de 2,2,4-trimetilpentano (el estándar de octano de la gasolina) me sale a 7,69 dólares o, lo que es lo mismo, a 5,31 dólares el litro. La compañía lleva invertidos 1,6 millones para obtener 5 litros; pues, mire usted, me lo creo.

Concluyendo:
  1. No existe una síntesis directa de gasolina. Se especula con que se pueda conseguir pero hoy día lo realizan por dos rutas establecidas y muy conocidas: conversión a gas de síntesis y proceso Fischer-Tropsch o síntesis de metanol + proceso Mobil.

  2. Los sistemas de obtención de los productos de partida son críticos debido al nivel de pureza necesario para los reactivos. La tecnología elegida ha sido la electrolisis lo que implica procesos discontinuos, altos costes energéticos y altos costes de mantenimiento y limita las fuentes de materias primas usables.

  3. La economía de todo el proceso depende de la obtención de electricidad a costes muy bajos. Además, la obtención económica de los productos intermedios, como hidrógeno o monóxido de carbono, ya sería un hito suficiente.

  4. El uso de cubas electrolíticas, el tratarse de un proceso por lotes y la necesidad de disponer de agua de una pureza alta, dificulta el escalado y, por tanto, la obtención de economías de escala para una producción masiva. El tamaño de planta eficiente no podrá ser muy grande.

  5. No hay novedad científico-técnica. La noticia es que estén intentando hacerlo con tantas papeletas en contra. Lo máximo que pueden aspirar, salvo el hallazgo de algo revolucionario que en estos momentos no existe, es a fabricar gasolina con la etiqueta “ecológica”, signifique ello lo que signifique, a precios exorbitantes. Sólo millonarios esnobs que quieran disfrutar de deportivos con etiqueta ecológica se me ocurren como posibles clientes.


    Esta entrada es una participación de Experientia docet en la XVIII Edición del Carnaval de Química que alberga XdCiencia.

lunes, 22 de octubre de 2012

La madre de todos los prejuicios



La evolución de la visión del mundo de un adolescente es un tema apasionante. En mi caso, atribuyo a la idealización de la figura del médico que tenía mi madre el querer ser médico desde que tenía uso de razón (existen fotografías y restos de libros que demuestran la seriedad de mi compromiso). Entonces, con 14 años ocurrió Cosmos de Carl Sagan, la serie primero y el libro para Reyes después. Y quise ser físico/astrónomo/científico.

Un efecto colateral de Cosmos fue mi descubrimiento de la figura de Einstein. La fascinación, común a muchos, fue inmediata. Leía todo lo que encontraba en bibliotecas sobre él. De entre todo lo que leía había un punto, sin embargo, que solía pasar sin pena ni gloria, como un dato más, que a mi me llamó poderosamente la atención: su admiración por Baruch Spinoza. Dispuesto a explorar por mi mismo el origen de esa admiración, a los 16 compraba mi primera Ética (una no demasiado buena edición de Bachiller, como me hizo notar mi primo Pedro, estudiante por aquel entonces de filosofía en Salamanca). A esta primera copia han seguido otras cuantas.

¿Imagináis ese momento en que la lectura y meditación de sólo un párrafo supone una revolución en tu forma de ver el mundo? ¿Algo que hace que todo encaje de cierta forma? ¿Una idea que hará que digieras la información de determinada manera el resto de tu vida? A mi me ocurrió con 16 años con el Apéndice del libro I de la Ética. Si sólo tuvieses que leer en tu vida unas páginas de filosofía yo te recomendaría ese apéndice que se lee en menos de 10 minutos; lo puedes encontrar aquí en la obra completa. Una de las ideas principales de ese apéndice y la revolucionaria, según mi punto de vista, cuando se medita, es esta:

[...]Todos los prejuicios que intento indicar aquí dependen de uno solo, a saber: el hecho de que los hombres supongan, comúnmente, que todas las cosas de la naturaleza actúan, al igual que ellos mismos, por razón de un fin […]

Sigue leyendo en Naukas

viernes, 19 de octubre de 2012

Sir Lawrence Bragg at the Royal Institution: Crystals and Gems


A continuación tendrás la oportunidad de ver una pequeña joya en forma de vídeo. Trata sobre los fundamentos de la cristalografía a un nivel muy elemental, con demostraciones prácticas delante de un público general no experto. Pero hay mucho más...

Fue rodado en 1959 en el teatro de la Royal Institution y lo presenta Sir W. Lawrence Bragg ayudado por William Coates. ¿No te suenan?

Bragg es la persona más joven en el momento de la concesión que jamás haya recibido un premio Nobel: tenía 25 años cuando fue premiado por sus estudios sobre la estructura de los cristales usando rayos X. En el momento en que se dedicaba a explicar cosas sencillitas al público en general, el laboratorio que el dirigía en ese momento, el Cavendish de la Universidad de Cambridge, completamente reorganizado bajo su liderazgo, había abandonado la investigación sobre la estructura atómica con la que lo hicieron famoso Thomson y Rutherford, y se centraba en el uso de la cristalografía para la determinación de la estructura de moléculas complejas. Fue bajo su dirección general que en 1953 se descubrió la estructura del ADN. En la época de la conferencia, Bragg hacía campaña para que se concediera el Nobel a su equipo por este logro a la vez que Perutz estaba en el laboratorio dilucidando la estructura de la hemoglobina. En 1962 los chicos de Bragg acaparaban premios, Watson y Crick recibirían el Nobel en fisiología y Perutz el de química. Bragg siguió dirigiendo trabajos relevantes una década más después de este vídeo.

La persona que orbita a Bragg en la filmación es Bill Coates, un técnico de laboratorio mítico. Abandonó su puesto como senior experimental officer en el laboratorio Davy-Faraday para dedicarse a lo que le veis hacer aquí: colaborar con científicos de primera división en el diseño y presentación de experimentos divulgativos. Sus experimentos eran muy visuales y con un tamaño ideal para el público presente en el teatro de la Royal Institution. Recibió la medalla Bragg en 1975 y fue hecho miembro de la Orden del Imperio Británico en 1980.

El vídeo está en inglés y en blanco y negro, pero Sir Lawrence tienen un inglés perfecto y los experimentos de Coates hablan por sí mismos. Una vez puesto en contexto, disfrútalo.


martes, 16 de octubre de 2012

¿Y si la evolución no fuese oportunista?



En un artículo publicado en Science Stuart Newman, del New York Medical College (EE.UU.) propone un modelo alternativo a uno de los mecanismos de la evolución, en concreto a que una mutación aleatoria y fortuita se conserva si  las ventajas funcionales del cambio aumentan las probabilidades de supervivencia/reproducción. Newman propone que el origen de los motivos estructurales de las morfologías animales era predecible, y sólo relativamente repentino, siendo el periodo primitivo de la evolución el que habría favorecido esas transformaciones morfológicas.

Cuando pensamos en la evolución damos por sentado que actúa de forma oportunista, a pequeños pasos, con cada cambio persistiendo sólo si aporta ventajas funcionales. La hipótesis que elabora Newman elimina este oportunismo y para crearla se basa en descubrimientos genéticos recientes sobre los ancestros unicelulares de los animales y, lo que puede resultar llamativo, en la física a mesoescala de algunos materiales  (quédate con esta expresión aparentemente extraña, en un momento descubriremos de qué se trata).

Los cuerpos de los animales y los embriones que los generan exhiben una serie de “motivos morfológicos” recurrentes que, a la vista de las pruebas del registro fósil, aparecieron por primera vez hace más de quinientos millones de años. Durante el desarrollo embrionario de los animales actuales, las células se disponen en tejidos que tienen capas que no se mezclan y cavidades interiores. Los embriones contienen disposiciones de tipos celulares que forman patrones con los que terminan formando segmentos, exoesqueletos o vasos sanguíneos. El desarrollo de los cuerpos continúa doblando, alargando y extendiendo apéndices y, en algunas especies, generando endoesqueletos con elementos repetitivos (como por ejemplo la mano humana).

Según Newman estas pautas del desarrollo son sorprendentemente similares a las formas que toman unas sustancias condensadas, químicamente activas, y claramente inertes, llamadas materiales viscoelásticos (pueden sonarte por su uso en colchones) cuando se someten a determinadas condiciones físicas, si bien los mecanismos que generan los motivos estructurales en los embriones serían mucho más complejos. Estos materiales viscoelásticos presentan estas características a escalas que son mayores que las de una sola célula, por tanto, según Newman, los ancestros de los animales actuales habrían adquirido sus formas cuando organismos unicelulares vinieron a residir en agrupaciones pluricelulares en las que los procesos físicos que afectan a la materia en general a esta nueva escala entraron en acción.

Los progenitores unicelulares habrían contenido los genes para el desarrollo genético con el que los animales actuales organizan el desarrollo embrionario, pero los habrían usado para funciones unicelulares. Cuando se formaron las agrupaciones pluricelulares estos genes precisamente habrían sido los que habrían generado los productos que habrían afrontado los efectos físicos a mesoescala que en última instancia habrían producido los motivos característicos. Y dado que no todas las agrupaciones ancestrales contenían los mismos genes, habrían aparecido distintas morfologías en paralelo, dando lugar a los distintos filos (phyla) animales.

Según Newman esta nueva perspectiva aportaría interpretaciones sencillas y “naturales” a aspectos chocantes de la evolución primitiva de los animales, incluyendo el aumento “explosivo” de formas corporales complejas hace entre 540 y 640 millones de años y la incapacidad de añadir nuevos motivos desde entonces. El modelo también justificaría el uso conservado del mismo conjunto de genes para orquestar el desarrollo en todos los filos morfológicamente diversos y el “reloj de arena” embriológico de la biología del desarrollo comparada: la observación de que las especies de un filo pueden tener trayectorias drásticamente diferentes durante la embriogénesis temprana (p. ej. ranas y ratones), pero terminan tendiendo “distribuciones generales del cuerpo” muy similares.

Referencia:

Newman, S. (2012). Physico-Genetic Determinants in the Evolution of Development Science, 338 (6104), 217-219 DOI: 10.1126/science.1222003

martes, 9 de octubre de 2012

De cómo la nicotina mejora la memoria.


La nicotina, habitualmente asociada al tabaco, es una molécula con claros efectos psicoactivos. Entre ellos está el aumento de la concentración y de la formación de recuerdos. Este último efecto se asocia al aumento en la secreción de acetilcolina que provoca la presencia en sangre de bajas dosis de nicotina. Ahora un equipo de investigadores encabezado por Richardson Leão, de la Universidad de Uppsala (Suecia), ha descubierto un nuevo grupo de células que regulan los procesos de aprendizaje y memoria. Estas células actuarían como controladores de acceso, formarían parte de una red en el hipocampo y la acetilcolina sería la responsable de la regulación de los procesos de creación de recuerdos. Los resultados se publican en Nature Neuroscience.

El hipocampo es una zona del encéfalo que es importante para la consolidación de la información en forma de recuerdos y nos permite aprender nuevas cosas. Los investigadores habrían descubierto que un tipo de neuronas que conectan dos zonas del hipocampo (interneuronas) explicaría cómo se controla el flujo de información dentro del hipocampo. Estas interneuronas son GABAérgicas, es decir, segregan el neurotransmisor GABA cuando se activan, son inhibitorias por tanto, y se denominan oriens lacunosum-moleculare alfa-2 (OLM-a-2).

Los humanos pensamos, aprendemos y memorizamos mediante neuronas que se mandan señales entre sí. Algunas mandan señales a áreas distantes del encéfalo, mientras que otras señalizan localmente. Los circuitos nerviosos locales en el hipocampo procesan impresiones y, algunas, las convierte en recuerdos. ¿Cómo puede la nicotina mejorar este mecanismo?

Los investigadores usaron ratones transgénicos en los que poder usar optogenética, esto es, que un haz de luz focalizada active determinadas neuronas y no otras, en este caso las OLM-a-2. La activación de estas neuronas inhibía la comunicación proveniente de fuera del hipocampo (del córtex entorrinal, EC en la imagen) favoreciendo la comunicación entre las áreas CA3 y CA1 del hipocampo. Por otra parte, los científicos encontraron que las neuronas OLM-a-2 están conectadas por uniones gap (uniones directas entre neuronas, sin sinapsis) y que se activan por la acción de la acetilcolina. Esta acetilcolina sería la consecuencia de la presencia de nicotina, por lo que ésta termina influyendo en los procesos mnemónicos que ejecuta el hipocampo.

Ni que decir tiene que los efectos perjudiciales del tabaco no compensan de ninguna de las maneras los posibles beneficios cognitivos de la nicotina. Otra cosa es que pueda ser interesante el desarrollo de fármacos selectivos parecidos a la nicotina que tengan los mismos efectos, sin la dependencia que crea esta sustancia.


Referencia:

Leão RN, Mikulovic S, Leão KE, Munguba H, Gezelius H, Enjin A, Patra K, Eriksson A, Loew LM, Tort AB, & Kullander K (2012). OLM interneurons differentially modulate CA3 and entorhinal inputs to hippocampal CA1 neurons. Nature neuroscience PMID: 23042082

sábado, 6 de octubre de 2012

Eso es lo que ellos harían




La carta

Robert miraba la carta con curiosidad. Weisskopf era una persona tranquila y razonable y algo importante tenía que suceder para que marcase aquella misiva como secreta. Había llegado a la universidad de Rochester en el 37, gracias a las influencias de Bohr y a su propia valía como físico. Sin embargo, en la profesión muchos eran de la opinión de que su carrera no era todo lo brillante que podría ser por sus inseguridades matemáticas.

Robert seguía mirando la carta, sumido en sus recuerdos, reflexionando antes de abrirla, intentando adivinar qué contenía. Weisskopf era vienés y se había doctorado en Gotinga con Born y Wigner en 1931, poco después de que lo hiciese el propio Robert. Después había estudiado con los grandes: Heisenberg, Schrödinger, Pauli y, sobre todo Bohr, que lo acogió y guió en Copenhague, consciente de su valía. Weisskopf mantenía contacto con todos los emigrados de Alemania y estaba al tanto de las últimas noticias de la comunidad de físicos alemanes. Tendría que ser algo de eso.

Nada podría haber preparado a Robert para el contenido de la carta. La releyó dos veces, incrédulo: Weisskopf se ofrecía para secuestrar a Heisenberg.

Diez años

Hacía solo diez años, que a Robert le parecían una eternidad, que Walton y Cockcroft habían bombardeado litio-7 con protones consiguiendo dos partículas alfa. ¡Cómo habían celebrado la noticia! ¡Se había partido un núcleo atómico por la mitad! La física era una fiesta entonces. El mismo año Chadwick descubría el neutrón y dos años después Fermi y los suyos bombardeaban uranio con él, pero no interpretaban bien los resultados. Ida Noddak se dio cuenta de que podía haber ocurrido que el núcleo se hubiese partido en trozos, pero nadie le hizo caso entonces, ¡qué sabría la química esa!

Para esa época Alemania ya sabía que vivía en una dictadura nazi. Hahn, Meitner y Strassmann comenzaron a sentir la presión en el Kaiser Wilhelm de Berlín, ya que Meitner era judía. Consiguieron seguir con sus experimentos reproduciendo el de Fermi hasta 1938, cuando Meitner tuvo que huir temiendo por su vida. Poco después recibió una carta de Hahn explicando que habían detectado bario en los residuos tras el bombardeo de uranio con neutrones. Meitner y su sobrino Frisch, ambos refugiados en Dinamarca, dieron una explicación sencilla: la fisión de núcleos pesados era posible.

La interpretación del resultado que dieron Meitner y Frisch cruzó el Atlántico con Bohr, extendiéndose rápidamente por los Estados Unidos. El 25 de abril del 39, Fermi y su equipo, en la Universidad de Columbia, consiguieron la primera fisión estadounidense, identificando el isótopo uranio-235 como el más probable núclido fisible.

Mientras tanto, los teóricos no estaban ociosos. Szilárd, también emigrado a los Estados Unidos, se dio cuenta de que el bombardeo de uranio con neutrones podía provocar una reacción en cadena. Rápidamente se puso en contacto con Fermi y con Joliot, que trabajaba en el mismo campo en Francia, para que no publicasen sus resultados, temeroso de que el militarismo alemán fuese consciente de las posibilidades del descubrimiento. Fermi no publicó, pero Joliot sí: el número promedio de neutrones emitidos en una fisión de uranio-235 era de 3,5. Los resultados se confirmaron rápidamente con la cifra corregida a 2,6. Los reactores nucleares pasaban a ser una posibilidad real. Las bombas atómicas también. El 1 de septiembre Alemania invadía Polonia.

El grupo de exiliados húngaros, el propio Szilárd, Teller, Wigner, estaban muy preocupados con la posibilidad de que Alemania construyese una bomba atómica. La única solución, según su punto de vista, era que los Estados Unidos se adelantasen. El 11 de octubre el presidente Roosevelt recibía una carta firmada por Einstein y redactada por Szilárd explicando la situación, y decidía formar un comité para supervisar los trabajos con el uranio. Los estadounidenses sabían de la existencia en Alemania de la Uranverein , el Club del Uranio, desde su creación ese mismo año y también conocían que Heisenberg formaba parte de ella.

Entre el 15 y el 22 de septiembre de 1941 Heisenberg acudió a la ocupada Dinamarca para una serie de conferencias y para discutir la fisión nuclear con Bohr. Éste huiría poco después a Inglaterra, donde contó a quien quisiera escucharle que los alemanes estaban trabajando seriamente en el desarrollo de armas nucleares.

La Uranverein había sido transferida al Consejo de Investigación del Reich en julio de 1942, pero las alarmas ya llevaban disparadas hacía tiempo: en junio se había constituido el Distrito de Ingeniería Manhattan, al que todo el mundo se refería como “el proyecto”. Los servicios de información afirmaban que el Consejo de Investigación del Reich había pasado a depender del Ministerio de Armamento y Municiones. Todo apuntaba a que Heisenberg dirigía el programa alemán para el desarrollo de una bomba atómica.

La propuesta

Robert, que desde septiembre era el director científico del proyecto, se encontraba sumido de lleno en la vorágine administrativa y de seguridad que lo rodeaba. Él, que no había sido ni siquiera director de su departamento de Berkeley, ahora tenía la responsabilidad de reclutar y coordinar a un equipo que el calculaba de cientos de científicos e ingenieros. Había sido un mes agotador. Y ahora la carta venía a mostrarle una nueva faceta desconocida para él de la condición humana.

Weisskopf informaba de noticias alarmantes que se contenían en otra carta que había recibido de Pauli, que desde 1940 trabajaba en el Instituto de Estudios Avanzados de Princeton. Pauli le informaba de que Heisenberg tenía programado dar una conferencia en Suiza, donde Pauli tenía toda una red de conocidos tras años de trabajar allí, como bien sabía Robert que hizo allí con él su postdoctorado. Weisskopf también decía que había discutido el asunto con Bethe, y los dos pensaban que debería hacerse algo al respecto inmediatamente.

Robert era hombre de acción y respondió inmediatamente. El asunto había que cortarlo de raíz. Agradeció a Weisskopf la “interesante” carta y le informó de que ya tenían esa información por otras vías; de que las autoridades de Washington estaban informadas y que, lo más probable, era que no se volviese a hablar del asunto entre ellos. Se tomó un tiempo para asegurarle que las autoridades tomarían las medidas necesarias.

Concluida la respuesta, Robert volvió a leer la frase que había llamado su atención y que revelaba hasta qué punto la guerra cambia a los hombres, académicos brillantes incluidos:

“Creo que lo mejor que se puede hacer en esta situación sería organizar el secuestro de Heisenberg en Suiza. Eso es lo que los alemanes harían si, por ejemplo, tú o Bethe aparecieseis por Suiza”.

Epílogo

En octubre de 1942, a consecuencia de la carta de Weisskopf, los servicios secretos consideraron todas las posibilidades. Finalmente se decidieron por no hacer nada, ya que el secuestro de Heisenberg alertaría a los nazis sobre la importancia que se le daba por parte de los aliados a la investigación nuclear.

Mucho después se volvió a valorar la posibilidad de secuestrar o asesinar a Heisenberg. En 1944 el agente Morris “Moe” Berg, nombre en código “Remus”, de la OSS (predecesora de la CIA) recibió como misión seguir a Heisenberg, de nuevo en Suiza, dejando a su discreción asesinarlo o no. Para ello el antiguo jugador de baseball y graduado por Princeton y Columbia, recibió formación en física nuclear con objeto de asistir como estudiante a la conferencia que Heisenberg iba a impartir en la Technische Hochschule de Zúrich. En un auditorio repleto de agentes nazis debía evaluar hasta qué punto Heisenberg era una amenaza habida cuenta del avance aparente en el desarrollo de armas nucleares y obrar en consecuencia. Berg decidió que Heisenberg no era una amenaza.

jueves, 4 de octubre de 2012

Te pueden hipnotizar sólo si estás neurológicamente predispuesto a ello.

No mires la imagen fijamente mucho rato. Y no, no se mueve, eres tú.




La hipnosis es un fenómeno muy llamativo. Quizás porque, aparte de sus aplicaciones clínicas, nos sugiera la posibilidad de tener el control absoluto sobre la voluntad de otra persona. En este sentido ha aparecido en novelas, películas o dibujos animados y se usa como espectáculo en teatros, circos y televisiones. Lo que poca gente sabe es que antes de un espectáculo de hipnosis, el hipnotizador, si no quiere hacer el ridículo, debe asegurarse de que los sujetos son susceptibles de ser hipnotizados. Esto es así porque aproximadamente un 25% de la población general no es hipnotizable: el hipnotizador debe pues realizar ensayos previos con los voluntarios si no quiere llevarse un chasco.

Pero, ¿en qué se diferencia una persona hipnotizable de otra que no lo es? La variación se ha atribuido tradicionalmente a la personalidad influenciable de los sujetos. Otra opción es que se trate de un rasgo neurológico, algo que es diferente en el encéfalo, y ahora un grupo de investigadores, encabezado por Fumiko Hoeft, de la Universidad de Stanford (EE.UU.), habría confirmado esta hipótesis. Los resultados se publican en Archives of General Psychiatry.

En el estudio se han empleado datos obtenidos a partir de imágenes por resonancia magnética estructural (MRI) y funcional (fMRI). Su análisis ha puesto de manifiesto que las personas no hipnotizables presentarían menos actividad en las áreas relacionadas con el control ejecutivo y la atención. Pero vayamos por partes.

La hipnosis se suele describir como un estado parecido al sueño sólo superficialmente, con características fisiológicas propias, en el que una persona ve incrementadas superlativamente su concentración y su focalización, por lo que se considera una alteración del estado de consciencia. Se ha demostrado que ayuda a mejorar el control encefálico sobre las sensaciones y el comportamiento (este aspecto es el usado en los espectáculos), y se ha empleado clínicamente para ayudar a pacientes con dolor (es conocida la anécdota de que Ramón y Cajal hipnotizaba a su mujer en los partos), para controlar el estrés y la ansiedad y para combatir fobias.

Para el estudio que nos ocupa los autores realizaron escáneres MRI y fMRI a los encéfalos de 12 adultos que previamente se había comprobado que eran muy hipnotizables y a otros 12 con baja hipnotizabilidad.
Los investigadores se centraron en el análisis de la actividad de tres redes neuronales concretas: la que podemos llamar red por defecto, que es la red que se usa cuando el cerebro no está haciendo nada a nivel consciente (soñar despierto, si acaso); la red del control ejecutivo, la que se activa en la toma de decisiones; y la red de relevancia, implicada en decidir que algo es más importante que otra cosa.

Los resultados son claros: en los cerebros del grupo altamente hipnotizable el córtex prefrontal dorsolateral izquierdo, un área de control ejecutivo, parece activarse a la vez que lo hace el córtex cingulado dorsal anterior, que es parte de la red de relevancia y participa en la focalización de la atención. Por contra, parece haber poca conectividad funcional entre estas dos áreas en las personas poco hipnotizables. En ambos grupos no había diferencias relevantes en la actividad de la red por defecto.

Esto es, el resultado viene a confirmar que la hipnotazibilidad tiene menos que ver con la personalidad que con el estilo cognitivo. Estaríamos delante de un rasgo neurológico.

Hasta aquí el estudio. Ahora bien, a nivel personal, no entiendo por qué los autores no dan el siguiente paso lógico: reclutar a una veintena de voluntarios sanos al azar, realizarles escáneres y determinar cuáles son hipnotizables y cuáles no en función de los resultados, comprobándolo después. Ratificaría una correlación con una diferencia de señal, por lo demás muy clara, y aumentaría la relevancia estadística.

El siguiente paso es también lógico, cómo cambia la activación encefálica durante la hipnosis. Este sí lo anuncian los autores para próximos trabajos.

Ni que decir tiene que una mejor comprensión de los mecanismos subyacentes redundará en un mejor y más amplio uso de la hipnosis en entornos clínicos.

Referencia:

Hoeft F, Gabrieli JD, Whitfield-Gabrieli S, Haas BW, Bammer R, Menon V, & Spiegel D (2012). Functional Brain Basis of Hypnotizability. Archives of general psychiatry, 69 (10), 1064-1072 PMID: 23026956

miércoles, 3 de octubre de 2012

Experientia docet en Amazings (Naukas) Bilbao 2012

Los pasados 29 y 30 de septiembre tuvo lugar en Bilbao Naukas 2012 (antes Amazings). Los colaboradores de Naukas nos reunimos ante una sala Mitxelena de Bizkaia Aretoa repleta para disfrutar haciendo lo que más nos gusta, divulgar ciencia. Si no pudiste asistir, o seguirlo en streaming, aquí tienes todos los vídeos.

Yo intervine dos veces. En primer lugar una charla de 10 minutos titulada "Agua, azucarillos y el ambiente", clarificando algunos conceptos sobre el origen de la vida. 


A continuación participé en la mesa redonda sobre astrobiología, junto a Carlos Briones (CAB-INTA) y Antonio J. Osuna (Universidad de Granada).