miércoles, 28 de diciembre de 2011

Un dispositivo que permite la comunicación telepática.




En varias ocasiones hemos hablado de la posibilidad cada vez más cercana de leer la mente (por ejemplo aquí). Estos avances se basan casi todos en el uso de la resonancia magnética funcional (fMRI). Sin embargo, una línea de investigación paralela ha intentado hacer uso de las señales eléctricas que generan el encefalograma y, últimamente, de los conocimientos sobre el campo eléctrico del cerebro (más detalles aquí ). Un equipo de investigadores encabezado por Xavier O'Heary, del Instituo de Tecnología de Massachusetts (MIT, EE.UU.), en colaboración con el NSRDEC del United States Army Soldier Systems Center, ha presentado un dispositivo capaz de “leer” el pensamiento verbal de una persona y transmitirlo por radio a un dispositivo similar de manera que otra persona pueda “escuchar” lo que ha “dicho”. La presentación tuvo lugar durante la New Combat Technologies Conference que se celebró el pasado día 22 de diciembre en Phoenix (EE.UU.). Una descripción de los aspectos neurocientíficos aparece en Science.

La actividad eléctrica del cerebro es capaz de afectar a un sistema magnético de tal manera que se generan corrientes externas que son emitibles por radio. El dispositivo lee la actividad cerebral de esta manera y la transmite por radio a otro elemento similar. En éste el proceso se invierte, convirtiéndose la señal eléctrica en magnética que afecta al campo del cerebro de tal manera que el sujeto “oye”. El sistema funciona por turnos y solamente para información verbal.

En los experimentos descritos en la carta enviada a Science, 7 parejas de sujetos fueron capaces de comunicarse mentalmente estando separados más de un kilómetro. En un primer experimento, los sujetos emisores tenían que leer mentalmente un listado de 50 palabras inconexas; en este caso los receptores “oyeron” menos de la mitad. Sin embargo, en un segundo experimento, en el que se usaron esas mismas palabras pero formando frases gramaticalmente correctas y con sentido, los receptores “oyeron” el 87% de las frases correctamente. Finalmente, en un tercer experimento, en el que los emisores leían al azar 20 de 100 frases posibles, previamente conocidas por los receptores, el índice de acierto fue del 100%.

Pero no todo es tan fácil. Los dispositivos tuvieron que ajustarse físicamente a cada sujeto y calibrarse de forma personalizada. Estas características, unidas a las demás, harán que el primer uso sea en los equipos de fuerzas especiales (Delta, SEALS, etc.) una vez se solucione el principal inconveniente, el peso, algo más de kilo y medio en los prototipos.

Independientemente del uso militar, estos dispositivos abren todo un mundo de posibilidades tanto para el estudio del cerebro como para el uso clínico, en pacientes con imposibilidad de comunicarse de otra forma. El futuro ya está aquí.

Referencia:

O´Heary, X., McMillan, J., Hudson, H., Steinberg, M., Eisenstein, R., Pampanella, L., Cape, J., Monnard, P., & Boncella, J. (2011). Electromagnetic Transduction and Long Distance Radio Communication of the Verbal Activity of the Brain DOI: 10.1039/hoy2812d

martes, 27 de diciembre de 2011

Q2011: Origen de la vida y biología sintética



El año 2011 que ahora acaba ha sido un año apasionante para la química, no porque fuese su año oficial, sino por los resultados obtenidos en los laboratorios. En esta entrada y en una próxima intentaremos repasar los que, a nuestro juicio, son los resultados más interesantes. Nos centraremos en dos grandes áreas: en esta entrada hablaremos del origen de la vida y biología sintética y en la próxima de diseño, estructura y discriminación moleculares.

No podemos empezar este repaso de otra manera que no sea mencionando el redescubrimiento de muestras olvidadas en el laboratorio de Stanley Miller. Las muestras, correspondientes a un experimento llevado a cabo en 1958, analizadas por Parker et al. [1], sugieren que las plumas volcánicas podrían haber tenido un papel importante en la formación de moléculas relevantes desde el punto de vista biológico.

Por otra parte están las investigaciones que se han centrado en averiguar cómo las moléculas prebióticas terminaron encerradas en células. Cape et al. [2] fabricaron vesículas primitivas para investigar cómo las primeras estructuras protocelulares habrían obtenido energía. El equipo de Cape construyó vesículas a partir de ácidos grasos e hidrocarburos poliaromáticos con iones metálicos atrapados en el hueco central. Los hidrocarburos poliaromáticos actuaron como fotocatalizadores, reduciendo los aniones metálicos que después eran regenerados por moléculas exteriores a la “célula” que actuaban como fuente de protones.
Sin embargo, en esta línea de investigación, el resultado más llamativo para los exobiólogos y amantes de la ciencia ficción es el de Li et al. [3] que fabricaron membranas celulares basadas en silicio. El equipo de investigadores consiguió que nanopartículas de sílice fuesen funcionales con grupos dimetilsilano y silanol, lo que les confería la propiedad de ser por una parte hidrofóbicas y por otra hidrofílicas, demostrando que las protocélulas de sílice son permeables y pueden albergar enzimas funcionales.

Otra línea de investigación con resultados muy interesantes ha sido la de los orígenes de la quiralidad en la vida en la Tierra. Así, Viedma et al. [4] consiguieron enriquecer el aminoácido valina mediante la sublimación continua de un racemato del compuesto, lo que cambiaba la forma de recristalización (más detalles aquí). Posteriormente Viedma et al. [5] también demostraron que hervir un disolución supersaturada también afecta al proceso de cristalización, con el resultado de una sola fase quiral. 

Hein et al. [6] sugirieron otra razón para el origen de la quiralidad de la vida usando amplificación química y el hecho bien conocido de que por encima de un cierto exceso de enantiómero las mezclas que cristalizan favorecen los cristales del mismo enantiómero. El equipo de Hein consiguió demostrar que con solo un ligero exceso (1%) de prolina, los precursores del ARN cristalizan con un exceso de enantiómero del 100%. Esto es, un mínimo desequilibrio que podría haber ocurrido al azar y una vez alcanzado un punto de no retorno y la vida sólo usa aminoácidos levógiros y azúcares dextrógiros [este paper es el origen de la idea que luego resultó ser mi relato Un reflejo de la Tierra].

La hipótesis del mundo de ARN también consiguió un importante apoyo este año a partir del trabajo de Wochner et al. [7] Esta hipótesis, propuesta por Francis Crick en 1968, sugiere que la vida en la Tierra comenzó con una molécula de ARN autorreplicante, pero sigue sin una prueba sólida. Wochner et al. volvieron a estudiar un ARNzima potencial de los años noventa del siglo pasado que fue considerado en su momento un callejón sin salida y, introduciendo presión evolutiva, encontraron finalmente una molécula de ARN que puede replicar hasta 93 bases sin ninguna otra ayuda.

Pero la investigación no se quedó en el estudio del origen de la vida, también hubo avances en la vida sintética. Marlière et al. [8] desarrollaron una “barrera genética” que podría prevenir que ADN manipulado/sintético pudiera cruzarse con una especie silvestre. El grupo consiguió acelerar la evolución de una cepa de Escherichia coli que usaba un análogo clorado de la timina, clorouracilo, como una de las bases de su ADN y podía sobrevivir sin timina. La idea del equipo de investigadores es desarrollar una vida paralela, pero completamente separada, que no pueda volver a usar timina. (más información aquí).

Si reemplazar una de las bases del ADN no te parece suficiente, ¿qué tal incorporar dos nuevas? Yang et al. [9], el equipo de Steven Benner, el hombre que inició el campo de la biología sintética, crearon dos nuevas bases que se parecen a la naturales pero que tienen patrones de enlace de hidrógeno ortogonales. El nuevo ADN GATCZP ya ha sido replicado en células artificiales y el equipo está intentado introducirlo en E. coli. Estos serían los cimientos de otra forma separada de vida sintética (más información aquí).

Esta entrada es una participación de Experientia docet en la X Edición del Carnaval de Química que acoge BioUnalm y en la VIII Edición del Carnaval de Biología que alberga Resistencia Numantina 


Referencias:

[1] Parker, E., Cleaves, H., Dworkin, J., Glavin, D., Callahan, M., Aubrey, A., Lazcano, A., & Bada, J. (2011). Primordial synthesis of amines and amino acids in a 1958 Miller H2S-rich spark discharge experiment Proceedings of the National Academy of Sciences, 108 (14), 5526-5531 DOI: 10.1073/pnas.1019191108

[2] Cape, J., Monnard, P., & Boncella, J. (2011). Prebiotically relevant mixed fatty acid vesicles support anionic solute encapsulation and photochemically catalyzed trans-membrane charge transport Chemical Science, 2 (4) DOI: 10.1039/c0sc00575d

[3] Li, M., Green, D., Anderson, J., Binks, B., & Mann, S. (2011). In vitro gene expression and enzyme catalysis in bio-inorganic protocells Chemical Science, 2 (9) DOI: 10.1039/c1sc00183c

[4] Viedma, C., Noorduin, W., Ortiz, J., Torres, T., & Cintas, P. (2011). Asymmetric amplification in amino acid sublimation involving racemic compound to conglomerate conversion Chemical Communications, 47 (2) DOI: 10.1039/c0cc04271d

[5] Viedma, C., & Cintas, P. (2011). Homochirality beyond grinding: deracemizing chiral crystals by temperature gradient under boiling Chemical Communications, 47 (48) DOI: 10.1039/c1cc14857e

[6] Hein, J., Tse, E., & Blackmond, D. (2011). A route to enantiopure RNA precursors from nearly racemic starting materials Nature Chemistry, 3 (9), 704-706 DOI: 10.1038/nchem.1108

[7] Wochner, A., Attwater, J., Coulson, A., & Holliger, P. (2011). Ribozyme-Catalyzed Transcription of an Active Ribozyme Science, 332 (6026), 209-212 DOI: 10.1126/science.1200752

[8] Marlière, P., Patrouix, J., Döring, V., Herdewijn, P., Tricot, S., Cruveiller, S., Bouzon, M., & Mutzel, R. (2011). Chemical Evolution of a Bacterium’s Genome Angewandte Chemie International Edition, 50 (31), 7109-7114 DOI: 10.1002/anie.201100535

[9] Yang, Z., Chen, F., Alvarado, J., & Benner, S. (2011). Amplification, Mutation, and Sequencing of a Six-Letter Synthetic Genetic System Journal of the American Chemical Society DOI: 10.1021/ja204910n




sábado, 24 de diciembre de 2011

Un reflejo de la Tierra





Noyori subió con esfuerzo a su nave. Tras dos años en Terraforma-5.1 con gravedad artificial de 0,9 g y dos meses en la nave sin ella, moverse en este planeta de masa sólo un cinco por ciento mayor que la Tierra se le hacía muy trabajoso a pesar del exoesqueleto motorizado que usaba. Se sentó pesadamente en la pequeña sala de comunicaciones y comenzó a preparar su primer informe, exclusivo para la comandante Paulze. A través de la pequeña ventana se extendía un macizo de árboles que, a primera vista, le recordaba a los de su Hokkaido natal. Había que fijarse en los detalles para darse cuenta que aquellos no eran pinos y abetos, sino especies completamente diferentes.

A Noyori le estaba costando editar la información. Todo lo que viese, oyese u “oliese”, así como su biométrica, quedaba grabado y sería enviado como archivo adjunto. Pero la comandante quería su opinión. Él era piloto de combate, una persona entrenada en seguir protocolos y habituado a tomar decisiones rápidas en caso de necesidad, no un científico, aunque tuviese acreditación C3. Él no tenía que estar editando aquello. La explosión de Terraforma-4.7 cuatro años terrestres antes había dejado a Terraforma-5.1 como la única estación operativa en todo aquel sector de la galaxia. Terraforma-4.7 había sido un centro de investigación y adiestramiento, con lo que con la explosión desaparecieron buena parte de los científicos de niveles C4 y C5. Un científico era algo muy preciado en aquellos momentos, demasiado como para enviarlo a una misión casi de rutina como aquella.

Decidió que describiría sólo los hechos, sin aventurarse a dar ningún tipo de hipótesis explicativa. Ya habría tiempo para aquello. Comenzó contando sus intentos fallidos de contactar con la base de Carroll 23c durante la aproximación. No le preocupó demasiado, era habitual que las comunicaciones desde la superficie en algunos planetas fuesen precarias debido a la presencia de ionosferas muy densas, y estaba acostumbrado a encontrar su camino, a volar “ciego”. Tampoco esperaba recibir respuesta. Después de todo, lo que había hecho que la comandante Paulze le enviase era que no había ningún tipo de comunicación proveniente de Carroll 23c. Tras haber recibido sin problemas más de 30 informes, las comunicaciones con la base habían cesado por completo. Si habían tenido problemas con la antena de superficie, no constaba que la ionosfera del planeta fuese particularmente importante, alguno de los dos miembros del equipo habría podido usar la nave auxiliar para ascender hasta una altura suborbital y enviar sus informes desde allí. Pero hacía dos meses y medio que Carroll 23c no enviaba ningún tipo de dato.

La causa del problema se le hizo evidente durante la aproximación final. La antena había caído como consecuencia de un desprendimiento de rocas y podía verse hecha un amasijo en el fondo de un barranco. Esos inútiles habían colocado las radiobalizas en el mismo lugar, seguro. Y es que estos exploradores eran demasiado jóvenes y demasiado inexpertos. La política de natalidad cero del gobierno confederal estaba dando sus frutos: la gente bien formada prefería quedarse en la Tierra superpoblada ganando buenos sueldos en vez de dedicarse a colonizar la galaxia. Este trabajo había quedado para los jovenzuelos que no querían, o no podían, alcanzar la acreditación C2 y para los que la ACCE, Agencia Confederal para la Colonización Espacial, necesitada de mano de obra, era la salida fácil y bien pagada. Al fin y al cabo todo, o casi todo, estaba automatizado.

Vio a Sánchez nada más posicionar la nave para el descenso. Estaba acurrucado en posición fetal debajo de una especie de abeto, justo enfrente de la entrada al pequeño edificio de una sola planta y aspecto metálico de la base. Noyori había detenido los motores y enviado el mensaje estandarizado de “Llegada sin problemas”. Aunque las lecturas de oxígeno eran normales, confirmando las informaciones que decían que la concentración de oxígeno en Carroll 23c era sólo algo superior a la de la Tierra, y la temperatura eran unos agradables 298 K, el piloto salió con aprensión al aire libre; eso de moverse sin traje presurizado se le hacía muy raro.

Sánchez no se movía, ni siquiera para respirar. Se acercó al cadáver con su arma reglamentaria activada. Sánchez estaba acurrucado, abrazándose las rodillas. No se apreciaban señales de violencia, aunque podían verse marcas en el suelo, seguramente de pequeños animales locales que habían intentado rasgar sin éxito el tejido que cubría todo el cuerpo del explorador. Su cara tenía una expresión pacífica, como la del que está durmiendo, pero lo marcado de sus huesos, cuando por las señales de descomposición no debía de llevar más de cinco días muerto, no era normal. El resto de su cuerpo también se veía extremadamente delgado. Una idea atravesó súbitamente la mente de Noyori, y un escalofrío recorrió su dolorida espalda, escenas como esta las había visto en la guerra de Mongolia y luego otra vez en el conflicto del este de África. Era algo inconcebible, que no podía ser y, sin embargo...los que morían de hambre tenían ese aspecto.


Sigue leyendo Un reflejo de la Tierra en Journal of Feelsynapsis (gratuito) y disfruta de todos los artículos de divulgación que contiene.

lunes, 12 de diciembre de 2011

El córtex durante el aprendizaje emocional.


High Heels por Antjie Hottowitz


Mi amigo Antonio (nombre ficticio) le tenía terror a la profesora X. Principalmente porque ésta le humillaba públicamente a la menor ocasión. Me consta que la asignatura de X era la que más estudiaba Antonio y, me consta también, que se solía saber la materia de una forma mucho más que aceptable para aprobar, sin embargo, el miedo le bloqueaba en presencia de X. Le bastaba oír el ritmo de sus tacones en el pasillo para que se pusiese blanco como la pared. Ese sonido a los demás no nos provocaba ningún tipo de reacción especial. Y es que el aprendizaje causa que una misma información sea procesada de forma diferente por los circuitos neuronales de nuestro cerebro. El miedo se suele asociar a una estructura denominada amígdala que está en las profundidades del encéfalo pero, por otra parte, la señales que envían los sentidos se procesan en el córtex; entonces ¿cómo se relaciona el córtex con el aprendizaje emocional?

Un equipo de investigadores encabezado por Johannes Letzkus, del Instituto Friedrich Miescher para la Investigación Biomédica (Suiza), ha sido capaz de seguir (creemos que por primera vez) un estímulo auditivo neurona a neurona en su camino a través del cerebro, descubriendo la existencia de un microcircuito desinhibidor en el córtex que interviene en el aprendizaje del miedo asociativo. Los resultados se publican en Nature.

Los investigadores reprodujeron la situación de Antonio, pero con ratones. Hicieron que éstos aprendieran a asociar un sonido con un estímulo desagradable hasta el punto de que el mismo sonido se convirtió en algo desagradable. Durante el proceso de aprendizaje los científicos visualizaron la actividad de las neuronas in vivo usando imágenes por microscopía de dos fotones/calcio (2-photon calcium imaging), una técnica que combina la microscopía de fluorescencia de 2 fotones con los efectos que en la fluorescencia de las tinciones usadas tiene la presencia de iones de calcio y que permite el análisis en tiempo real de circuitos neuronales intactos con una resolución de células individuales.

En condiciones normales la actividad de las redes neuronales está muy controlada por un equilibrio preciso entre la excitación sináptica (que favorece el disparo de la neurona) y la inhibición sináptica (que evita el disparo). Así, cualquier señal entrante se ve rápidamente amortiguada por la inhibición, permitiendo el disparo de las neuronas por un espacio muy breve de tiempo después de la aparición del estímulo. En nuestro ejemplo, y simplificando, yo oigo el taconeo pero no lo registro especialmente. Por contra, los investigadores encontraron que el aprendizaje emocional abre una ventana prolongada de inhibición reducida, una desinhibición. De esta manera, cuando el animal, ya sea el ratón o mi amigo Antonio, percibe el sonido durante el aprendizaje, se procesa con mucha más intensidad que en condiciones normales. Esta actividad incrementada induce probablemente la plasticidad sináptica que es la base de la formación del recuerdo. Letzkus et al. comprobaron que este procesamiento también se aplica a los estímulos visuales.

La comprobación del papel de la desinhibición en el aprendizaje se realizó usando optogenética. Los investigadores usaron ratones modificados genéticamente que expresan genes que forman un canal iónico extra en las neuronas que se activa por luz de una determinada longitud de onda (más detalles aquí). Usaron esta propiedad para interferir selectivamente la desinhibición durante el aprendizaje. Cuando, al día siguiente, comprobaron lo que recordaban estos ratones, constataron que no asociaban el sonido al estímulo desagradable o, en otras palabras, la desinhibición es indispensable para el aprendizaje asociativo.

En conclusión, la desinhibición parece ser necesaria para el aprendizaje, pero no causa el aprendizaje por sí misma. Por el contrario, es lo que percibimos durante este estado de “excitación extra” lo que determina lo que aprendemos realmente.

Desde el año pasado mi amigo Antonio es senior scientist, en un área muy similar a la asignatura que impartía X, en el laboratorio principal de una prestigiosa multinacional norteamericana. Sigue enervándose cuando oye el ruido de tacones.

Referencia:

Letzkus, J., Wolff, S., Meyer, E., Tovote, P., Courtin, J., Herry, C., & Lüthi, A. (2011). A disinhibitory microcircuit for associative fear learning in the auditory cortex Nature DOI: 10.1038/nature10674

miércoles, 30 de noviembre de 2011

De por qué Curiosity no encontrará vida.


Cráter Gale, destino de Curiosity


Cualquier persona mínimamente interesada en la ciencia sabe que el pasado sábado despegó rumbo a Marte el rover Curiosity como parte de la misión Mars Science Laboratory (MSL) de la NASA. Algunos medios (ejemplos, aquí y aquí) y, en buena medida, el imaginario popular, afirman que el objetivo de MSL es encontrar “vida” o “rastros de vida”. Pero esto no es así. Por ello vamos a presentar muy sucintamente no sólo cuales son los objetivos científicos de MSL sino también el contexto en el que se han fijado estos objetivos. De esta forma sabremos qué resultados esperar de MSL y no nos llevaremos decepciones innecesarias.

Objetivos científicos de MSL

En general, la MSL estudiará si el cráter Gale presenta signos de ambientes habitables actualmente o en el pasado. Este estudio será parte de un examen más amplio de los procesos pasados y actuales en la atmósfera y superficie marcianas. Para llevarlo a cabo se realizarán mediciones instrumentales soportadas por la capacidad de recoger muestras, suministrar energía y comunicaciones y la movilidad del rover Curiosity. Es decir, no buscará “vida”, sino las condiciones que, según las hipótesis consideradas, serían favorables para la vida.

Esta misión general se articula en cuatro objetivos científicos para MSL (entre comillas nuestra traducción de los objetivos oficiales marcados por la NASA):

a) “Evaluar el potencial biológico de al menos una ambiente objetivo mediante la determinación de la naturaleza y el inventario de compuestos de carbono, buscando específicamente los relacionados con la vida (según la hipótesis terráquea de que la vida se basa en carbono) e identificando las características que podrían registrar las acciones de los procesos biológicamente relevantes”. Es decir, se va a detectar y cuantificar cualquier molécula orgánica, sobre todo las complejas y las que podrían ser consecuencia de procesos metabólicos, como el metano.

b) “Caracterizar la geología del terreno del rover en todas las escalas espaciales apropiadas investigando la composición mineralógica, química e isotópica de la superficie y cercana a la superficie e interpretar los procesos que han formado las rocas y los suelos”. Esto es, análisis químico inorgánico exhaustivo.

c) “Investigar los procesos planetarios de relevancia para la habitabilidad pasada (incluyendo el papel del agua) mediante la evaluación de la evolución atmosférica a largo plazo y la determinación del estado actual, distribución y ciclos del agua y el dióxido de carbono”. Muy llamativamente no se menciona el metano.

d) “Caracterizar el espectro completo de la radiación en superficie, incluyendo la radiación cósmica galáctica, los sucesos de protones solares y los neutrones secundarios”

Si nos damos cuenta a) y b) se resumen en análisis químico cualitativo y cuantitativo completo del suelo y la atmósfera en, al menos, el lugar de amartizaje; d) es lo mismo pero de la radiación. Finalmente c) es registrar los datos de una estación meteorológica. No existe pues ningún experimento directamente biológico destinado a detectar vida. Como decíamos más arriba sólo se va a investigar si Marte fue habitable (según ciertas hipótesis) o lo es hoy día. Si hay microbios en el lugar de aterrizaje Curiosity no los detectará.

Pero, ¿por qué estos objetivos y no otros?¿Por qué no se incluye ningún experimento directamente diseñado para detectar vida? La respuesta corta es por la historia de la exploración de Marte y porque la NASA no se puede permitir crear falsas expectativas.

Sigue al agua

La hipótesis de que en Marte hay o hubo vida viene de lejos. Una idea es que como Marte es más pequeño que la Tierra se enfrió antes y, probablemente, habría podido tener un ambiente compatible con la vida mucho antes. Por tanto, cabe la posibilidad de que la vida empezase allí y que los impactos de asteroides arrancasen trozos de marte que contenían microbios que terminaron llegando a la Tierra en forma de meteoritos, sembrando la vida. En otras palabras, descenderíamos de marcianos.

Teorías como esta y otras por el estilo, así como las presuntas observaciones de canales, etc., dispararon la imaginación de científicos y literatos sobre la existencia de algo más que simple vida en Marte.

Pero cuando el Mariner 4, la primera sonda espacial que pasó cerca de Marte en 1965, mandó fotos de desiertos yermos sólo salpicados por rocas, los ánimos comenzaron a enfriarse. Posteriormente las Viking aterrizaron en la superficie del planeta y realizaron experimentos diseñados espacíficamente para la detección de vida, con resultados negativos. En 1976 a Marte se le daba ya por muerto y la enorme inversión en estas dos misiones Viking y las expectativas defraudadas crearon una enorme decepción en el público y en el gobierno de los Estados Unidos.

A partir de ese momento la NASA ya no jugó tanto con el concepto de vida en Marte y en vez de ello se embarcó en una campaña metódica de exploración de la historia geológica y el clima del planeta. Aunque Marte hoy día parezca seco y frío, lo que se dice muerto, señales geológicas como rieras, lechos lacustres secos y cañones gigantescos apuntan a un pasado en el que el agua corría por la superficie. El lema “sigue al agua” se convirtió en el principio rector de la exploración. Los dos últimos rovers de la NASA, Spirit y Opportunity, encontraron pruebas convincentes de que hubo ambientes habitables en el pasado de Marte. El objetivo de Curiosity es dar un paso más y buscar moléculas basadas en carbono, incluyendo metano, como posibles bases de una vida pasada. Suponiendo que ésta se basase en carbono, claro está.

Una actitud conservadora si se quiere, pero es que los datos disponibles no permiten arriesgar más. No cuando el presupuesto pende de un hilo y defraudar al contribuyente norteamericano puede significar la cancelación de programas completos.

Indicios no son pruebas

Imagenes orbitales recientes indicarían que el agua podría estar fluyendo ocasionalmente en la superficie de Marte. Nuevos hallazgos realizados en la Tierra acerca de cómo la vida puede florecer en ambientes aparentemente hostiles, como en la oscuridad de las aguas cercanas a las fumarolas volcánicas submarinas, ayudan a que los científicos sean más abiertos a la hora de considerar la posible pervivencia de la vida en Marte. Pero estos son indicios circunstanciales, no pruebas.

Las pruebas directas existen pero son, cuando menos, controvertidas. Así en 1996, un equipo de científicos de la NASA anunció que había encontrado microbios fosilizados en un meteorito marciano que había impactado en la Antártida. Esta conclusión fue discutida inmediatamente por otros grupos de investigadores y aún hoy se sigue discutiendo casi tanto como la presencia de metano en Marte. La irregularidad de la presencia de metano en el planeta podría ser un indicio de la existencia de agua líquida subterránea o vida, pero aún se discute si la detección es fiable.

Los éxitos de Spirit y Opportunity han permitido que Curiosity esté de viaje ahora mismo. Pero el reciente fracaso de Phobos-Grunt no ayuda precisamente a que los dos próximos lander, proyectos conjuntos NASA-ESA previstos inicialmente para 2016 y 2018, salgan adelante. De hecho, el gobierno Obama está seriamente considerando cancelarlos. La posibilidad de saber si existe vida en Marte puede que tenga que esperar todavía muchos años.

Más información:
· Una descripción completísima de la misión puede encontrarse en Curiosity, el robot marciano más complejo de la historia.

· Una presentación de los antecedentes sobre la presencia de metano en Marte está en ¿Hay o no hay metano en Marte? 



viernes, 25 de noviembre de 2011

La certeza de aparecer en un mapa.



Imagina que coges un mapa del mundo y lo despliegas sobre una mesa. Da igual donde esté la mesa, porque ya esté en Punta del Este, Maracaibo, Houston, Ushuaia, Múnich o Bormujos, en lo alto de un monte o en el fondo del mar, podemos afirmar que el lugar donde esté aparece en el mapa. Diciéndolo un poco más formalmente: siempre habrá un punto del mapa que corresponda exactamente con el lugar físico que representa. ¿Te parece obvio?¿Sí? Pues no lo es; al menos en matemáticas hay que demostrarlo. Esta idea tan aparentemente evidente implica conceptos mucho más complejos que son difíciles de demostrar matemáticamente. Y esto es lo que se acaba de conseguir de forma muy elegante. Pero vamos por partes.

Ese punto del mapa que corresponde a la localización donde está el mapa es lo que en matemáticas se llama un punto fijo. Dada una función, un punto fijo será aquel valor de la variable x para el que f(x)= x, es decir, la función toma el mismo valor que la variable. Lo que ha demostrado el equipo encabezado por Uri Bader, del Technion (Israel), es un teorema de la existencia de puntos fijos que la generaliza a todo tipo de mapas, ya sea un plano del metro de Medellín o los mapas de los espacios usados en física cuántica. Dado que el número de mapas posibles es infinito, la prueba tenía que hacer uso de toda el refinamiento de las matemáticas. El resultado aparece publicado en Inventiones mathematicae.

En 2008 apareció un artículo de 30 páginas, todas en jerga matemática, que casi llegaba a la prueba. Barry Edward Johnson, que fue el matemático que formuló el teorema en 1964 con Ringrose en un artículo titulado Derivations of operator algebras and discrete group algebras, trabajó en el “problema de la derivación” hasta su muerte en 2002 sin encontrar la prueba. La que ahora presentan Bader et al. apenas ocupa un par de páginas (el artículo completo con referencias tiene 6) y supone un cambio radical a la hora de afrontar el problema.

Cuando los matemáticos se han enfrentado al problema de la derivación una de las dificultades mayores para hallar una prueba ha sido la de encontrar todos los puntos fijos. Para visualizarlo mejor, imagina que tu objetivo es calcular el centro de gravedad de cualquier objeto, de manzanas a planetas, de sofás a moléculas, reales o imaginarios. La tarea se hace imposible y por eso esta vía se hacía impracticable. Lo que los investigadores han hecho es un tiro por elevación, en vez de disparar directamente al blanco, usar un mortero, primero subimos y después bajamos: probar el teorema primero para otros espacios paralelos (espacios de Banach L1 y sus análogos no conmutativos) y extaer la prueba del problema de la derivación como corolario. Un resultado contraintuitivo, pero tremendamente elegante que tendrá probablemente sus aplicaciones a largo plazo en física y econometría, donde los puntos fijos suelen aparecer.


Esta entrada es una participación de Experientia docet en la Edición 2.8 del Carnavalde matemáticas que alberga Cuanta Ciencia  

Referencia: 

Bader, U., Gelander, T., & Monod, N. (2011). A fixed point theorem for L 1 spaces Inventiones mathematicae DOI: 10.1007/s00222-011-0363-2

jueves, 24 de noviembre de 2011

Existen diferencias estructurales y funcionales en el cerebro de los psicópatas.


Ruta de conexión entre el córtex prefrontal ventromedial (vmPFC) y la amígdala (AMY) a través del giro cingulado anterior (ACG).


En muchos sistemas penitenciarios el fin del encarcelamiento es la reinserción del preso en la sociedad. ¿Es esto siempre posible, al menos teóricamente? ¿Puede reinsertarse un psicópata?

La comparación de imágenes de cerebros de reclusos diagnosticados como psicópatas y otros, con los mismos delitos, pero sin ese diagnóstico muestran importantes diferencias. La localización de estas diferencias podría explicar el impulsivo comportamiento antisocial de los psicópatas. El estudio, encabezado por Julian Motzkin, de la Universidad de Wisconsin en Madison (EE.UU.), se ha publicado en el Journal of Neuroscience.

La investigación se basa en un trabajo previo de otros dos coautores, Newman y Koenig, que muestra que la toma de decisiones de los psicópatas es muy parecida a la de personas con daños en el córtex prefrontral ventromedial (CPFVM), lo que indicaría que los problemas con esta parte del cerebro están asociados con la psicopatía. Esta demostración indirecta se vuelve directa en el estudio que nos ocupa, y pone de manifiesto que existe una anormalidad cerebral específica asociada a la psicopatía criminal.

Activación del CPFVM
En concreto los datos obtenidos apuntarían a que los psicópatas presentan una reducción en las conexiones entre el CPFVM, la parte del cerebro responsable de la empatía y la culpa, y la amígdala, que media en el miedo y la ansiedad. Para llegar a esta conclusión se recogieron dos tipos de imágenes. Las obtenidas con tensor de difusión (tractografía DTI) muestran una reducción en la integridad estructural en las fibras de materia blanca (axones) que conectan ambas áreas, mientras que las obtenidas por resonancia magnética funcional (fMRI), que detectan la actividad del cerebro, señalan una menor actividad coordinada entre el CPFVM y la amígdala. Es decir, CPFVM y amígdala no se están comunicando como debieran.

El estudio se realizó en una cárcel de seguridad media del estado de Wisconsin empleando escáneres portátiles. Se realizaron mediciones de 40 presos que habían cometido delitos similares, de los que 20 habían sido diagnosticados como psicópatas.

La combinación de anormalidades estructurales y funcionales parece demostrar bastante bien que la disfunción observada en el circuito social-emocional es una característica estable de los reclusos psicópatas. Independientemente de que el estudio haya de reproducirse y obtener más datos, ¿debe un sistema penitenciario tratar a todos los presos por igual e intentar reinsertar a una persona cuyo cerebro no está preparado para ello?

Referencia:
Motzkin J, Newman JP, Kiehl K, Koenigs M. (in press) Reduced prefrontal connectivity in psychopathy. Journal of Neuroscience.


Desatinos en la innovación: el desatino del ingeniero.

En un mundo en crisis ser innovador es la diferencia entre la supervivencia y la desaparición. Desde nuestro punto de vista existen dos clases de “innovadores”: los que lo son realmente y los que consiguen recibir esa etiqueta de la administración de turno y las subvenciones asociadas. Lo que sigue va dirigido a los que desean marcar la diferencia de verdad.

Continúa leyendo en 4 ideas claras.

lunes, 21 de noviembre de 2011

Nudos en el éter.



En el siglo XIX físicos y químicos no tenían muy claro qué podían ser los átomos y la imaginación se usaba para proveer teorías que justificasen los datos experimentales. La consecución de los espectros de los distintos elementos ponía de manifiesto que existía una relación entre la radiación, la luz, y los átomos. Como la luz se transmitía por el éter, ¿qué impedía considerar a los átomos de los distintos elementos como perturbaciones en la continuidad del éter? Ello justificaría de forma muy elegante esas líneas oscuras y brillantes que aparecían en los distintos espectros. Esta fue la idea que propuso en 1867 William Thomson, más conocido como Lord Kelvin: los átomos no eran otra cosa que nudos en el éter. La estabilidad topológica y la variedad de los nudos serían un reflejo de la estabilidad de la materia y la variedad de los elementos químicos. La teoría dio en llamarse teoría atómica de los vórtices y estuvo en vigor hasta casi el siglo XX.

Espectros del neón (Ne), mercurio (Hg) y sodio (Na)


Enlace de Hopf
La idea de que los átomos eran nudos de vórtices de éter se le ocurre a Thomson tras observar los experimentos que el físico-matemático Peter Tait estaba realizando con anillos de humo que, a su vez, se inspiraban en un artículo de Helmholtz sobre los anillos vorticiales en fluidos incompresibles. Thomson y Tait llegaron al convencimiento de que el estudio y la clasificación de todos los nudos posibles explicaría por qué los átomos absorbían y emitían luz en frecuencias determinadas. Thomson, por ejemplo, creía que el sodio podría ser un enlace de Hopf debido a las dos líneas características de su espectro. La teoría tenía el respaldo de personajes de peso, como James Clerk Maxwell, que afirmaba que la teoría satisfacía más condiciones que cualquiera de sus competidoras.

Así pues, Tait se embarcó en solitario en la aventura de realizar un estudio y tabulación completa de los nudos en un intento de comprender cuando dos nudos eran “diferentes”. Sólo al final recibió la ayuda de C.N. Litttle. La idea intuitiva de Tait sobre lo que es “igual” y “diferente” es todavía útil. Dos nudos son “isotópicos” (iguales) si uno puede ser manipulado de forma continua en 3 dimensiones, sin que existan autointersecciones, hasta que tenga el aspecto del otro.

Tabla (parcial) de nudos de Tait
En la ilustración podemos ver parte del trabajo de Tait: una enumeración de nudos y enlaces en términos del número de cruces en una proyección plana. Si la teoría de Kelvin hubiese sido una base correcta para la clasificación de los elementos químicos entonces las tablas de nudos de Tait habrían sido los cimientos de la tabla periódica. Pero la teoría de Kelvin demostró ser completamente errónea, y físicos y químicos perdieron el interés por el trabajo de Tait.

Una ley no escrita de la ciencia afirma que algunas veces los problemas más interesantes se encuentran en la papelera de otro investigador. Lo que los físicos abandonaron atrajo a los matemáticos, que se centraron en la pregunta que se hizo Tait: ¿cómo podemos dilucidar si dos nudos son isotópicamente iguales? La teoría atómica fallida dejaba para iniciar el trabajo las 163 proyecciones de nudos de Tait y una comprensión rudimentaria de la igualdad isotópica en términos de manipulaciones de las proyecciones. Desde el punto de vista matemático se había encontrado una mina de oro: desde entonces la teoría de nudos ha ido creciendo sin parar, e incluso a reentrado en la física teórica de la mano de la teoría de cuerdas.

Pero la teoría se está reinventando a sí misma continuamente. Sam Nelson, profesor del Claremont McKenna College (EE.UU.), publica un artículo en Notices of the American Mathematical Society en el que describe el nuevo enfoque en la teoría de nudos se ha ido imponiendo en los últimos años y los objetos parecidos a nudos que se han descubierto por el camino. Y ese enfoque parte de los diagramas que representan a los nudos más que de los nudos mismos.

E1D2E3D1E2D3
Desde el punto de vista matemático el cordón con el que se hace el nudo es un objeto idealizado de una dimensión, mientras que el nudo en sí es tridimensional. Los dibujos de los nudos, como los que hizo Tait, son proyecciones del nudo en el plano bidimensional. En estos dibujos se acostumbra a dibujar los cruces por encima o por debajo del cordón como líneas continuas o discontinuas, respectivamente (véase el diagrama). Si tres o más trozos del cordón están uno encima de otro en un punto concreto, lo que se hace es mover ligeramente los trozos sin cambiar el nudo de tal manera que cada punto del plano tiene encima como mucho dos trozos. Así, podemos decir que un diagrama plano de un nudo es la representación de un nudo, dibujada en el plano bidimensional, en la que cada punto del diagrama representa como mucho a dos puntos del nudo. Los diagramas planos de nudos son una herramienta habitual en matemáticas para representar y estudiar los nudos.

Pero, claro, manejar sólo diagramas no es posible, por lo que se han desarrollados distintos métodos para representar la información contenida en los diagramas de nudos. Un ejemplo es la notación de Gauss, que no es más que una secuencia de letras y números en la que a cada cruce en el nudo se le asigna un número y las letras E o D, dependiendo de si el cruce se hace por encima o por debajo. Así, en el nudo del diagrama vemos que si empezamos por 1 y seguimos hacia la derecha el cordón pasa por encima (E1), da la vuelta para pasar por debajo de 2 (D2), continúa para pasar por encima de 3 (E3), luego por debajo de 1 (D1), encima de 2 (E2) y debajo de 3 (D3); por tanto el código en notación de Gauss para ese nudo es E1D2E3D1E2D3.

A mediados de los años 90 del siglo XX los matemáticos descubrieron algo extraño. Existen códigos de Gauss para los que es imposible dibujar diagramas de nudos planos pero que, sin embargo, se comportan como nudos en ciertos casos. En concreto, esos códigos, que Nelson llama “códigos gaussianos no planos”, se comportan perfectamente en algunas fórmulas que se emplean para investigar las propiedades de los nudos.

Si un código gaussiano “plano” siempre describe un nudo en tres dimensiones, ¿qué describiría un código gaussiano no plano? Estaríamos hablando de sustancias etéreas de nuevo, nudos virtuales que tienen códigos gaussianos válidos pero que no corresponden a nudos en el espacio tridimensional. Estos nudos virtuales pueden investigarse aplicando técnicas de análisis combinatorio a los diagramas de nudos.

De la misma forma que, cuando los matemáticos se pararon a considerar la posibilidad de que -1 tuviese una raíz cuadrada, se descubrieron los números complejos (omnipresentes en física e ingeniería), que encierran como “caso particular” los números reales, ahora se ha descubierto que las ecuaciones que se usan para investigar los nudos tridimensionales dan lugar a todo un universo de “nudos generalizados” que tienen sus características particulares pero que incluyen a los nudos tridimensionales como caso particular.

¿Qué utilidad tendrá el descubrimiento más allá de las matemáticas? No lo sabemos. En los libros de matemáticas están ya las ecuaciones de la física del futuro. El problema de los físicos es averiguar cuáles son.

Esta entrada es una participación de Experientia docet en la Edición 2.8 del Carnaval de matemáticas que alberga Cuanta Ciencia

Referencia:

Nelson, Sam  "The Combinatorial Revolution in Knot Theory", Notices of the AMS December (2011) PDF 

viernes, 18 de noviembre de 2011

Una estructura metálica más ligera que el aire.

Microrred ultraligera de níquel-fósforo. Cortesía de HRL.

En las historias de ciencia ficción las naves, herramientas y armas de los extraterrestres casi siempre están hechas de un material “muy ligero, extremadamente resistente y de una estructura y composición desconocidas”. Un material que acaba de presentarse en Science hace que empecemos a plantearnos si no seremos nosotros los alienígenas.

Para empezar el material ha batido el récord mundial de menor densidad para un material estructural que hasta ahora lo poseía un aerogel con una densidad de 1 mg/cm3, inferior a la del propio aire (1,2 mg/cm3). La microrred metálica creada por el equipo encabezado por Tobias Schaedler, de los laboratorios HRL (EE.UU.), tiene una densidad de sólo 0,9 mg/cm3, aún así presenta una capacidad muy alta para absorber energía y recuperar la forma tras una compresión. Estas dos características hacen que se le pueda encontrar aplicaciones en campos diversos, desde la astronáutica y aeronáutica hasta los elementos para la absorción de impactos o la de ruidos.

La microrred consiste en una red muy ordenada y controlada de riostras huecas interconectadas, hechas de una aleación de fósforo y níquel. En la muestra prototipo las riostras tenían unas 100 μm de diámetro y las paredes un espesor de 100 nm. Debido a la importancia de la estructura en las características mecánicas, el proceso de obtención es tanto o más importante que la composición química. Y espectacular.

Para crear la estructura primero hay que crear una plantilla de polímero. Para ello se coloca un placa opaca con agujeros circulares según un patrón sobre un depósito de monómero de tiol-eno fotosensible en estado líquido. Se ilumina la placa con luz ultravioleta y donde la luz llega al monómero, éste polimeriza; la polimerización supone un cambio en el índice de refracción con respecto al monómero, por lo que conforme la polimerización avanza se va creando un túnel óptico por el que la luz se ve dirigida, como en una fibra óptica. Esto es, se forma una guía de ondas del fotopolímero autopropagada o, para visualizarlo mejor, una “fibra” dentro del depósito de monómero líquido. Eligiendo placas distintas se puede conseguir que estas fibras tengan distintas direcciones y que se intersecten, creando una red interconectada. Se elimina entonces el monómero que no ha reaccionado con un disolvente y el resultado es una estructura de microrred, en la que las guías de onda autopropagadas son los miembros estructurales de la red, las riostras.

Esta plantilla de la red se sumerge entonces en una disolución de catalizador antes de introducirla en una disolución de niquel-fósforo. La aleación de níquel-fósforo se deposita catalíticamente en la superficie de las riostras de polímero hasta un espesor de 100 nm. Una vez terminada la deposición, el polímero se elimina con hidróxido sódico, lo que deja una geometría de red idéntica pero de tubos huecos de níquel-fósforo. La estructura es tan liviana que si tomamos una unidad de volumen sólo el 0,01% estará ocupado por la aleación, de aquí la densidad tan sumamente baja.

Al igual que ocurre con las construcciones de ingeniería, las propiedades de la estructura son diferentes a la de la aleación en bruto. Ésta es muy frágil, pero cuando se comprime la microrred los tubos huecos no se parten, sino que se doblan como si fuesen pajitas de refresco, con un alto grado de elasticidad . La microrred puede comprimirse hasta la mitad de su volumen y retorna a su forma original sin daño apreciable. (Véase el vídeo).



Démonos cuenta de que el procedimiento puede aplicarse a todo compuesto que pueda depositarse formando una película, por lo que el repertorio de candidatos con los que ensayar este forma de microingeniería es amplísimo.

Entramos en el territorio inexplorado de la microingeniería estructural, cualquiera sabe hasta dónde nos llevará.


Esta entrada es una participación de Experientia docet en la IV Edición del Carnaval de la Tecnología que alberga Eureka y en la IX Edición del Carnaval de Química que acoge Hablando de ciencia.  

Referencia:

Schaedler, T., Jacobsen, A., Torrents, A., Sorensen, A., Lian, J., Greer, J., Valdevit, L., & Carter, W. (2011). Ultralight Metallic Microlattices Science, 334 (6058), 962-965 DOI: 10.1126/science.1211649


miércoles, 16 de noviembre de 2011

La cinética química en las nubes interestelares podría ser muy diferente a la que se cree.




Cuando nos planteamos la evolución del universo solemos hablar de materia y energía en términos muy genéricos (radiación, gas, partículas, polvo, etc.) y puramente físicos, como si las reacciones químicas fuesen algo más reciente y que no tuviesen nada que ver con la formación de las estrellas, la evolución de las nubes interestelares, o la formación de los planetas. Sin embargo, las reacciones químicas juegan ya un papel importante en el universo primitivo.

Las reacciones astroquímicas son poco conocidas y, en principio, difieren mucho de la química terrestre por el entorno en el que tienen lugar: temperaturas próximas al cero absoluto, tasas de colisión (choques) entre especies (átomos, iones, moléculas) bajísimas, exposición a radiaciones ionizantes, etc. Estas condiciones hacen que se encuentren especies que son impensables en la Tierra. Pero no solamente especies, también se están encontrando resultados de velocidades de reacción que son completamente inesperados y anti-intuitivos. Veamos dos casos muy sencillos pero de consecuencias importantes.

Cuando un átomo neutro y un ion positivo se encuentran pueden ocurrir alguna de estas reacciones:

[a] A + B+ A+ + B
[b] A + B+ A+ + B + γ
[c] A + B+  (AB)+ + γ

donde γ es un fotón. Estas reacciones se llaman reacciones de intercambio de carga binarias (RICB), pues lo único que ocurre es que existe un intercambio de un electrón entre las dos especies. En la química terrestre lo habitual es [a], pero [c] es la siguiente posibilidad más probable con la salvedad de que, si bien la teoría dice que debe emitirse un fotón, la cantidad de colisiones hace que la liberación de energía se haga en forma de calor. La reacción [c] se denomina asociación radiativa (AR).

Un equipo de investigadores encabezado por Wade Rellergert, de la Universidad de California en Los Ángeles (EE.UU.), ha estudiado a temperaturas sólo unas milésimas por encima del cero absoluto la AR entre un átomo de calcio y otro de iterbio:

40Ca + 174Yb+  (CaYb)+ + γ

Átomos e iones se hacían reaccionar en una trampa híbrida (magneto-óptica) de iones donde los láseres se habían encargado de enfriarlos adecuadamente. La velocidad de reacción medida fue 4 órdenes de magnitud mayor (¡diez mil veces más rápida!) de la que se suele asumir para la RA en estas condiciones. Varias comprobaciones y cálculos teóricos confirmaron que el valor era correcto. Los resultados aparecen en un preprint subido a arXiv [1].



Por otra parte, el equipo de Felix Hall, de la Universidad de Basilea (Suiza), ha encontrado en RICB ultrafrías muy sencillas, también en trampas iónicas híbridas, una química muy compleja. En este caso los investigadores han hecho reaccionar iones de calcio con átomos de rubidio:

87Rb + 40Ca+

observando todas las reacciones posibles ([a], [b], [c]).

Lo interesante de los experimentos de Hall et al., cuyos resultados están disponibles en arXiv [2], es que demuestran los cálculos teóricos según los que, si el ion calcio está excitado en el momento de encontrarse con el átomo de rubidio puede emitir un fotón de muchas más formas que si está en el estado de menos energía. Es decir, la luz excita el ion, lo que aumenta sus probabilidades de reaccionar emitiendo un fotón; el efecto neto es que la luz actúa de catalizador. En concreto si el ion de calcio está en el segundo nivel de excitación la reacción es 100 veces más rápida que en estado fundamental.

¿Cómo interpretamos estos datos? Estos estudios demuestran que los electrones en un átomo muy lento (muy frío) tienen tiempo de interactuar con un ion cuando colisionan. La RCIB habitual a temperatura ambiente [a], en la que el electrón salta del átomo al ion durante un contacto brevísimo, se hace muy improbable. En vez de eso, el átomo y el ion están mucho más tiempo juntos en un estado que recuerda una molécula excitada [c], que tiene una alta probabilidad de emitir un fotón, lo que le da a las velocidades de reacción un empujón significativo (e inesperado).

Para modelar la actividad y la historia de las nubes de gas los astrofísicos hacen uso de bases de datos con información sobre las reacciones químicas, pero los datos están incompletos, con muchas reacciones aproximadas o extrapoladas. Estos resultados tan sorprendentes ponen aún más de relieve la necesidad de realizar estudios quimicocuánticos sistemáticos y mediciones experimentales de las velocidades de reacción.

Esta entrada es una participación de Experientia docet en la IXEdición del Carnaval de Química que acoge Hablando deciencia

Referencias:

[1] W Rellerget et al, 2011, arXiv:1104.5478 [pre-print]
[2] F Hall et al, 2011, arXiv:1108.3739 [pre-print]



martes, 15 de noviembre de 2011

La conquista del libre albedrío.



El pasado 13 de noviembre Eddy Nahmias, profesor de filosofía de la Universidad Estatal de Georgia (EE.UU.) publicaba un interesante artículo en The Stone, un foro de discusión filosófica del New York Times, titulado Is Neuroscience the Death of FreeWill? (¿Es la neurociencia la muerte del libre albedrío?). Recomendamos leer el artículo en su totalidad, del que vamos a destacar los que consideramos sus párrafos fundamentales. A continuación pondremos la discusión en contexto y terminaremos exponiendo qué espacio, siempre según nuestra opinión, queda para el libre albedrío y cómo se conquista; pues no está dado por defecto y, por tanto, no todo el mundo lo tiene.

Estos son los párrafos que consideramos que encierran las premisas del argumento de Nahmias:

Las ciencias de la mente realmente nos dan buenas razones para pensar que nuestras mentes están hechas de materia. Pero concluir que la consciencia o el libre albedrío son, por tanto, ilusiones es ir demasiado rápido. Es como inferir a partir de los descubrimientos de la química orgánica que la vida es una ilusión sólo porque los organismos vivos están hechos de materia no viva. Mucho del progreso en la ciencia viene precisamente de comprender todos en términos de sus partes, sin sugerir la desaparición de los todos. No hay razón para definir la mente o el libre albedrío de una manera que cercena esta posibilidad para progresar.

[…] Pero primero necesitamos definir el libre albedrío de una forma más razonable y más útil. Muchos filósofos, incluido yo, entendemos el libre albedrío como un conjunto de capacidades para imaginar cursos de acción futuros, deliberar acerca de las propias razones para elegirlos, planificar las propias acciones a la vista de esta deliberación y controlar las acciones cuando se enfrentan a deseos competidores. Actuamos según nuestro propio libre albedrío en tanto en cuanto tenemos la capacidad de ejercer estas capacidades, sin presión irrazonable externa o interna. Somos responsables de nuestras acciones hasta el punto en que poseamos estas capacidades y tengamos oportunidad para ejercerlas.

Empecemos con el primer párrafo. ¿Si la mente es materia, implica ello que no hay libre albedrío? No necesariamente, como indica Nahmias. Pero tampoco se puede afirmar que esa posibilidad pueda excluirse. Lo único que podemos afirmar es que, si la mente es materia, está sujeta a las leyes que gobiernan la materia. Por lo tanto el problema se ve reducido en cierta manera a la posibilidad de la existencia de libertad en un universo determinista. ¿Es nuestro universo determinista?

Habitualmente se suele apelar a las fenómenos de la mecánica cuántica para encontrar algo de indeterminismo en el universo. Los que emplean este razonamiento suelen partir de unas hipótesis que pertenece al siglo XVII, en el que el determinismo consistía en afirmar la existencia de cadenas causales para cada fenómeno. Sin embargo, podemos afirmar sin temor a equivocarnos demasiado que el universo es determinista en un sentido estadístico. Yo no sé si un determinado átomo de yodo-131 va a desintegrarse en los próximos días, pero sí puedo afirmar que en los próximos ocho días la mitad de los átomos de yodo-131 presentes en la muestra lo habrán hecho, y usar este conocimiento para el tratamiento del cáncer. En este sentido, la ciencia macroscópica, el universo a efectos prácticos, es determinista. ¿Es posible la libertad en un universo así?

En el segundo párrafo, Nahmias nos da una definición de libre albedrío. De ella vamos a destacar esta expresión “sin presión irrazonable externa o interna”. No vamos a entrar aquí en detalle, que el lector puede encontrar fácilmente incluso sin salir de este blog, pero esta es la verdadera clave. La genética, la fisiología, la neurociencia y la psicología demuestran que nuestros genes y nuestro entorno moldean nuestra personalidad y ésta, a su vez, marca nuestras tendencias ( a ser felices, a deprimirnos, actividades que nos gustan, etc.); que nuestra herencia evolutiva nos hace percibir y conocer el mundo de determinada manera haciendo que nuestro encéfalo cree un mundo que nosotros pensamos que es real; que nuestras percepciones, decisiones y juicios se ven afectados por los niveles (natural o artificialmente inducidos) de determinadas sustancias en nuestra sangre; que la abrumadora mayoría de las decisiones que tomamos son inconscientes; y que, finalmente, tendemos a racionalizar nuestras decisiones una vez tomadas. De forma más o menos deliberada todos estos condicionantes son usados por vendedores, psicólogos, jefes, diseñadores, propagandistas, fundadores de sectas, gurúes varios, manipuladores en general y estafadores en particular, para lograr sus fines. Conociendo todo esto, ¿es razonable pensar que pueda existir el libre albedrío?

Nahmias expresa su conclusión de esta manera (negritas mías):

Por tanto, ¿significa la neurociencia la muerte del libre albedrío? Bueno, podría ser si demostrase de alguna manera que la deliberación consciente y el autocontrol racional no existiesen realmente o que funcionasen en un rincón protegido del cerebro que no tuviese influencia sobre nuestras acciones. Pero ninguna de estas posibilidades es probable. Es cierto, las ciencias de la mente continuarán demostrando que la consciencia no trabaja exactamente de la manera en que pensábamos, y ya sugieren limitaciones significativas a la extensión de nuestra racionalidad, autoconocimiento y autocontrol. Estos descubrimientos sugieren que la mayoría de nosotros poseemos menos libre albedrío de lo que tendemos a creer, y puede que alimenten debates sobre nuestros grados de responsabilidad. Pero no demuestran que el libre albedrío sea una ilusión.

Tiendo a estar de acuerdo con este párrafo. Esto es, vivimos en un universo estadísticamente determinista, en el que, suponiendo que el libre albedrío pueda existir, está demostrado que nuestra libertad de juicio y de toma de decisiones está muy limitada. Somos muchísimo menos libres de lo que pensamos que somos. No obstante, ello no implica que deje de tener sentido la responsabilidad ética o penal; sin embargo, sí debería tener consecuencias para las formas que deban adoptar los castigos y/o tratamientos de los responsables.

Y es que el libre albedrío, desde nuestro punto de vista, no viene dado, no es la opción por defecto del ser humano. Este libre albedrío tan limitado debe ser conquistado mediante el conocimiento, el autoconocimiento y el del mundo. La existencia de las matemáticas y la lógica (no debe confundirse con su historia o con los matemáticos, individual y colectivamente) en sus distintas formas es la expresión de que este espacio de libertad es alcanzable: la racionalidad libre de sus condicionantes humanos. De la misma forma que el autoconocimiento es la recomendación filosófica por excelencia, el “conócete a ti mismo” que Platón pone reiteradamente en la boca de Sócrates, la idea de que la libertad personal debe ser conquistada por el conocimiento es central en la filosofía de Spinoza.

Efectivamente, Spinoza considera que somos esclavos mientras estemos bajo el control de los procesos mentales propios que no comprendemos, y tan libres como seamos capaces de comprender creativamente el universo, incluyendo nosotros mismos. La ciencia de hoy parece darle la razón.

domingo, 13 de noviembre de 2011

Cuasiparece, pirita no es.


El pasado viernes, al finalizar mi conferencia sobre “El universo matemático de los cuasicristales” en la Facultad de Química de la Universidad de Sevilla, recibí por Twitter de @copepodo una pregunta en relación a un grano de cuasicristal con hábito dodecaédrico regular y simetría icosaédrica de la celda unidad. Me refiero a esta imagen:
Grano de cuasicristal de Ho-Mg-Zn de 22mm de arista.


La pregunta se refería a ella como pirita. Los cristales de pirita, efectivamente, pueden adoptar un hábito dodecaédrico irregular propio, llamado piritoedro. En éste, cada pentágono está formado por cuatro lados iguales y uno desigual. Este hábito viene derivado de la estructura cúbica centrosimétrica de la pirita. Esta es una imagen de granos de piritoedros:

Granos piritoédricos de pirita

Gráficamente:

Piritoedro
Dodecaedro


jueves, 10 de noviembre de 2011

Un material que se autorrepara a temperatura ambiente.


Un gel puede repararse a sí mismo simplemente poniendo en contacto las superficies de rotura. El material es capaz de autorrepararse incluso después de cinco días de haber sufrido el daño expuesto a un ambiente rico en oxígeno, en ausencia de luz y a temperatura ambiente.

Un gel es básicamente una estructura tridimensional sólida que alberga un líquido. El gel de ducha es un ejemplo, pero la gelatina comestible se aproxima más a la idea de gel técnico. La combinación de plasticidad y estructura sólida los hace candidatos ideales en el desarrollo de materiales inteligentes.

Los materiales autorreparadores tienen la capacidad de repararse a sí mismos cuando sufren un daño. Esta es una característica importante en los implantes médicos o en dispositivos astronáuticos. Los materiales inteligentes que presentan esta característica la consiguen por dos vías, bien por química supramolecular del tipo interacciones huésped-hospedador, que son muy rápidas pero muy sensibles a la presencia de agua, o por enlaces covalentes específicos, tolerantes al agua y a otros grupos funcionales competidores, pero que requieren un aporte energético (luz, calor o ambos) para reconstruir los enlaces.

Se deduce de lo anterior que la química del material inteligente autorreparador ideal es aquella en la que la reparación se produce sin estimulación y no depende de condiciones especiales del entorno, más allá del contacto físico de las superficies a reparar.

Un paso en esta dirección lo ha dado el equipo encabezado por Keiichi Imato, de la Universidad Kyushu (Japón), al conseguir una molécula con capacidad de entrecruzamiento, es decir, de formar redes tridimensionales, que puede dividirse formando un par de radicales, moléculas muy reactivas por tener electrones desparejados.

La clave química del material está en que en realidad la molécula unidad, diarilbibenzofuranona (DABBF), no es realmente una molécula estable, sino que está en equilibrio con sus dos partes constituyentes, radicales de arilbenzofuranona, es decir, está permanentemente rompiéndose y creándose. Esto significa que simplemente hay que poner en contacto dos superficies de DABBF para que terminen uniéndose o, lo que es lo mismo, si una superficie de DABBF se ve dañada el mero contacto hace que se autorrepare. En 24 horas el gel tiene la misma fortaleza que antes del daño.



Este resultado es más una prueba de principio que otra cosa, pero eso no le resta un ápice de su interés. Las aplicaciones más evidentes, como decíamos arriba, están en los campos de la exploración espacial y en los implantes médicos. Una barrera que queda por superar es la de la toxicidad, sin bien el DABBF no tiene pinta de ser muy tóxico, el disolvente que le acompaña (orgánico) lo es, y los radicales libres suelen serlo, y mucho.

Esta entrada es una participación de Experientia docet en la IV Edición del Carnaval de la Tecnología que alberga Eureka y en la IX Edición del Carnaval de Química que acoge Hablando de ciencia.

Referencia:

Imato, K., Nishihara, M., Kanehara, T., Amamoto, Y., Takahara, A., & Otsuka, H. (2011). Self-Healing of Chemical Gels Cross-Linked by Diarylbibenzofuranone-Based Trigger-Free Dynamic Covalent Bonds at Room Temperature Angewandte Chemie International Edition DOI: 10.1002/anie.201104069