miércoles, 30 de noviembre de 2011

De por qué Curiosity no encontrará vida.


Cráter Gale, destino de Curiosity


Cualquier persona mínimamente interesada en la ciencia sabe que el pasado sábado despegó rumbo a Marte el rover Curiosity como parte de la misión Mars Science Laboratory (MSL) de la NASA. Algunos medios (ejemplos, aquí y aquí) y, en buena medida, el imaginario popular, afirman que el objetivo de MSL es encontrar “vida” o “rastros de vida”. Pero esto no es así. Por ello vamos a presentar muy sucintamente no sólo cuales son los objetivos científicos de MSL sino también el contexto en el que se han fijado estos objetivos. De esta forma sabremos qué resultados esperar de MSL y no nos llevaremos decepciones innecesarias.

Objetivos científicos de MSL

En general, la MSL estudiará si el cráter Gale presenta signos de ambientes habitables actualmente o en el pasado. Este estudio será parte de un examen más amplio de los procesos pasados y actuales en la atmósfera y superficie marcianas. Para llevarlo a cabo se realizarán mediciones instrumentales soportadas por la capacidad de recoger muestras, suministrar energía y comunicaciones y la movilidad del rover Curiosity. Es decir, no buscará “vida”, sino las condiciones que, según las hipótesis consideradas, serían favorables para la vida.

Esta misión general se articula en cuatro objetivos científicos para MSL (entre comillas nuestra traducción de los objetivos oficiales marcados por la NASA):

a) “Evaluar el potencial biológico de al menos una ambiente objetivo mediante la determinación de la naturaleza y el inventario de compuestos de carbono, buscando específicamente los relacionados con la vida (según la hipótesis terráquea de que la vida se basa en carbono) e identificando las características que podrían registrar las acciones de los procesos biológicamente relevantes”. Es decir, se va a detectar y cuantificar cualquier molécula orgánica, sobre todo las complejas y las que podrían ser consecuencia de procesos metabólicos, como el metano.

b) “Caracterizar la geología del terreno del rover en todas las escalas espaciales apropiadas investigando la composición mineralógica, química e isotópica de la superficie y cercana a la superficie e interpretar los procesos que han formado las rocas y los suelos”. Esto es, análisis químico inorgánico exhaustivo.

c) “Investigar los procesos planetarios de relevancia para la habitabilidad pasada (incluyendo el papel del agua) mediante la evaluación de la evolución atmosférica a largo plazo y la determinación del estado actual, distribución y ciclos del agua y el dióxido de carbono”. Muy llamativamente no se menciona el metano.

d) “Caracterizar el espectro completo de la radiación en superficie, incluyendo la radiación cósmica galáctica, los sucesos de protones solares y los neutrones secundarios”

Si nos damos cuenta a) y b) se resumen en análisis químico cualitativo y cuantitativo completo del suelo y la atmósfera en, al menos, el lugar de amartizaje; d) es lo mismo pero de la radiación. Finalmente c) es registrar los datos de una estación meteorológica. No existe pues ningún experimento directamente biológico destinado a detectar vida. Como decíamos más arriba sólo se va a investigar si Marte fue habitable (según ciertas hipótesis) o lo es hoy día. Si hay microbios en el lugar de aterrizaje Curiosity no los detectará.

Pero, ¿por qué estos objetivos y no otros?¿Por qué no se incluye ningún experimento directamente diseñado para detectar vida? La respuesta corta es por la historia de la exploración de Marte y porque la NASA no se puede permitir crear falsas expectativas.

Sigue al agua

La hipótesis de que en Marte hay o hubo vida viene de lejos. Una idea es que como Marte es más pequeño que la Tierra se enfrió antes y, probablemente, habría podido tener un ambiente compatible con la vida mucho antes. Por tanto, cabe la posibilidad de que la vida empezase allí y que los impactos de asteroides arrancasen trozos de marte que contenían microbios que terminaron llegando a la Tierra en forma de meteoritos, sembrando la vida. En otras palabras, descenderíamos de marcianos.

Teorías como esta y otras por el estilo, así como las presuntas observaciones de canales, etc., dispararon la imaginación de científicos y literatos sobre la existencia de algo más que simple vida en Marte.

Pero cuando el Mariner 4, la primera sonda espacial que pasó cerca de Marte en 1965, mandó fotos de desiertos yermos sólo salpicados por rocas, los ánimos comenzaron a enfriarse. Posteriormente las Viking aterrizaron en la superficie del planeta y realizaron experimentos diseñados espacíficamente para la detección de vida, con resultados negativos. En 1976 a Marte se le daba ya por muerto y la enorme inversión en estas dos misiones Viking y las expectativas defraudadas crearon una enorme decepción en el público y en el gobierno de los Estados Unidos.

A partir de ese momento la NASA ya no jugó tanto con el concepto de vida en Marte y en vez de ello se embarcó en una campaña metódica de exploración de la historia geológica y el clima del planeta. Aunque Marte hoy día parezca seco y frío, lo que se dice muerto, señales geológicas como rieras, lechos lacustres secos y cañones gigantescos apuntan a un pasado en el que el agua corría por la superficie. El lema “sigue al agua” se convirtió en el principio rector de la exploración. Los dos últimos rovers de la NASA, Spirit y Opportunity, encontraron pruebas convincentes de que hubo ambientes habitables en el pasado de Marte. El objetivo de Curiosity es dar un paso más y buscar moléculas basadas en carbono, incluyendo metano, como posibles bases de una vida pasada. Suponiendo que ésta se basase en carbono, claro está.

Una actitud conservadora si se quiere, pero es que los datos disponibles no permiten arriesgar más. No cuando el presupuesto pende de un hilo y defraudar al contribuyente norteamericano puede significar la cancelación de programas completos.

Indicios no son pruebas

Imagenes orbitales recientes indicarían que el agua podría estar fluyendo ocasionalmente en la superficie de Marte. Nuevos hallazgos realizados en la Tierra acerca de cómo la vida puede florecer en ambientes aparentemente hostiles, como en la oscuridad de las aguas cercanas a las fumarolas volcánicas submarinas, ayudan a que los científicos sean más abiertos a la hora de considerar la posible pervivencia de la vida en Marte. Pero estos son indicios circunstanciales, no pruebas.

Las pruebas directas existen pero son, cuando menos, controvertidas. Así en 1996, un equipo de científicos de la NASA anunció que había encontrado microbios fosilizados en un meteorito marciano que había impactado en la Antártida. Esta conclusión fue discutida inmediatamente por otros grupos de investigadores y aún hoy se sigue discutiendo casi tanto como la presencia de metano en Marte. La irregularidad de la presencia de metano en el planeta podría ser un indicio de la existencia de agua líquida subterránea o vida, pero aún se discute si la detección es fiable.

Los éxitos de Spirit y Opportunity han permitido que Curiosity esté de viaje ahora mismo. Pero el reciente fracaso de Phobos-Grunt no ayuda precisamente a que los dos próximos lander, proyectos conjuntos NASA-ESA previstos inicialmente para 2016 y 2018, salgan adelante. De hecho, el gobierno Obama está seriamente considerando cancelarlos. La posibilidad de saber si existe vida en Marte puede que tenga que esperar todavía muchos años.

Más información:
· Una descripción completísima de la misión puede encontrarse en Curiosity, el robot marciano más complejo de la historia.

· Una presentación de los antecedentes sobre la presencia de metano en Marte está en ¿Hay o no hay metano en Marte? 



viernes, 25 de noviembre de 2011

La certeza de aparecer en un mapa.



Imagina que coges un mapa del mundo y lo despliegas sobre una mesa. Da igual donde esté la mesa, porque ya esté en Punta del Este, Maracaibo, Houston, Ushuaia, Múnich o Bormujos, en lo alto de un monte o en el fondo del mar, podemos afirmar que el lugar donde esté aparece en el mapa. Diciéndolo un poco más formalmente: siempre habrá un punto del mapa que corresponda exactamente con el lugar físico que representa. ¿Te parece obvio?¿Sí? Pues no lo es; al menos en matemáticas hay que demostrarlo. Esta idea tan aparentemente evidente implica conceptos mucho más complejos que son difíciles de demostrar matemáticamente. Y esto es lo que se acaba de conseguir de forma muy elegante. Pero vamos por partes.

Ese punto del mapa que corresponde a la localización donde está el mapa es lo que en matemáticas se llama un punto fijo. Dada una función, un punto fijo será aquel valor de la variable x para el que f(x)= x, es decir, la función toma el mismo valor que la variable. Lo que ha demostrado el equipo encabezado por Uri Bader, del Technion (Israel), es un teorema de la existencia de puntos fijos que la generaliza a todo tipo de mapas, ya sea un plano del metro de Medellín o los mapas de los espacios usados en física cuántica. Dado que el número de mapas posibles es infinito, la prueba tenía que hacer uso de toda el refinamiento de las matemáticas. El resultado aparece publicado en Inventiones mathematicae.

En 2008 apareció un artículo de 30 páginas, todas en jerga matemática, que casi llegaba a la prueba. Barry Edward Johnson, que fue el matemático que formuló el teorema en 1964 con Ringrose en un artículo titulado Derivations of operator algebras and discrete group algebras, trabajó en el “problema de la derivación” hasta su muerte en 2002 sin encontrar la prueba. La que ahora presentan Bader et al. apenas ocupa un par de páginas (el artículo completo con referencias tiene 6) y supone un cambio radical a la hora de afrontar el problema.

Cuando los matemáticos se han enfrentado al problema de la derivación una de las dificultades mayores para hallar una prueba ha sido la de encontrar todos los puntos fijos. Para visualizarlo mejor, imagina que tu objetivo es calcular el centro de gravedad de cualquier objeto, de manzanas a planetas, de sofás a moléculas, reales o imaginarios. La tarea se hace imposible y por eso esta vía se hacía impracticable. Lo que los investigadores han hecho es un tiro por elevación, en vez de disparar directamente al blanco, usar un mortero, primero subimos y después bajamos: probar el teorema primero para otros espacios paralelos (espacios de Banach L1 y sus análogos no conmutativos) y extaer la prueba del problema de la derivación como corolario. Un resultado contraintuitivo, pero tremendamente elegante que tendrá probablemente sus aplicaciones a largo plazo en física y econometría, donde los puntos fijos suelen aparecer.


Esta entrada es una participación de Experientia docet en la Edición 2.8 del Carnavalde matemáticas que alberga Cuanta Ciencia  

Referencia: 

Bader, U., Gelander, T., & Monod, N. (2011). A fixed point theorem for L 1 spaces Inventiones mathematicae DOI: 10.1007/s00222-011-0363-2

jueves, 24 de noviembre de 2011

Existen diferencias estructurales y funcionales en el cerebro de los psicópatas.


Ruta de conexión entre el córtex prefrontal ventromedial (vmPFC) y la amígdala (AMY) a través del giro cingulado anterior (ACG).


En muchos sistemas penitenciarios el fin del encarcelamiento es la reinserción del preso en la sociedad. ¿Es esto siempre posible, al menos teóricamente? ¿Puede reinsertarse un psicópata?

La comparación de imágenes de cerebros de reclusos diagnosticados como psicópatas y otros, con los mismos delitos, pero sin ese diagnóstico muestran importantes diferencias. La localización de estas diferencias podría explicar el impulsivo comportamiento antisocial de los psicópatas. El estudio, encabezado por Julian Motzkin, de la Universidad de Wisconsin en Madison (EE.UU.), se ha publicado en el Journal of Neuroscience.

La investigación se basa en un trabajo previo de otros dos coautores, Newman y Koenig, que muestra que la toma de decisiones de los psicópatas es muy parecida a la de personas con daños en el córtex prefrontral ventromedial (CPFVM), lo que indicaría que los problemas con esta parte del cerebro están asociados con la psicopatía. Esta demostración indirecta se vuelve directa en el estudio que nos ocupa, y pone de manifiesto que existe una anormalidad cerebral específica asociada a la psicopatía criminal.

Activación del CPFVM
En concreto los datos obtenidos apuntarían a que los psicópatas presentan una reducción en las conexiones entre el CPFVM, la parte del cerebro responsable de la empatía y la culpa, y la amígdala, que media en el miedo y la ansiedad. Para llegar a esta conclusión se recogieron dos tipos de imágenes. Las obtenidas con tensor de difusión (tractografía DTI) muestran una reducción en la integridad estructural en las fibras de materia blanca (axones) que conectan ambas áreas, mientras que las obtenidas por resonancia magnética funcional (fMRI), que detectan la actividad del cerebro, señalan una menor actividad coordinada entre el CPFVM y la amígdala. Es decir, CPFVM y amígdala no se están comunicando como debieran.

El estudio se realizó en una cárcel de seguridad media del estado de Wisconsin empleando escáneres portátiles. Se realizaron mediciones de 40 presos que habían cometido delitos similares, de los que 20 habían sido diagnosticados como psicópatas.

La combinación de anormalidades estructurales y funcionales parece demostrar bastante bien que la disfunción observada en el circuito social-emocional es una característica estable de los reclusos psicópatas. Independientemente de que el estudio haya de reproducirse y obtener más datos, ¿debe un sistema penitenciario tratar a todos los presos por igual e intentar reinsertar a una persona cuyo cerebro no está preparado para ello?

Referencia:
Motzkin J, Newman JP, Kiehl K, Koenigs M. (in press) Reduced prefrontal connectivity in psychopathy. Journal of Neuroscience.


Desatinos en la innovación: el desatino del ingeniero.

En un mundo en crisis ser innovador es la diferencia entre la supervivencia y la desaparición. Desde nuestro punto de vista existen dos clases de “innovadores”: los que lo son realmente y los que consiguen recibir esa etiqueta de la administración de turno y las subvenciones asociadas. Lo que sigue va dirigido a los que desean marcar la diferencia de verdad.

Continúa leyendo en 4 ideas claras.

lunes, 21 de noviembre de 2011

Nudos en el éter.



En el siglo XIX físicos y químicos no tenían muy claro qué podían ser los átomos y la imaginación se usaba para proveer teorías que justificasen los datos experimentales. La consecución de los espectros de los distintos elementos ponía de manifiesto que existía una relación entre la radiación, la luz, y los átomos. Como la luz se transmitía por el éter, ¿qué impedía considerar a los átomos de los distintos elementos como perturbaciones en la continuidad del éter? Ello justificaría de forma muy elegante esas líneas oscuras y brillantes que aparecían en los distintos espectros. Esta fue la idea que propuso en 1867 William Thomson, más conocido como Lord Kelvin: los átomos no eran otra cosa que nudos en el éter. La estabilidad topológica y la variedad de los nudos serían un reflejo de la estabilidad de la materia y la variedad de los elementos químicos. La teoría dio en llamarse teoría atómica de los vórtices y estuvo en vigor hasta casi el siglo XX.

Espectros del neón (Ne), mercurio (Hg) y sodio (Na)


Enlace de Hopf
La idea de que los átomos eran nudos de vórtices de éter se le ocurre a Thomson tras observar los experimentos que el físico-matemático Peter Tait estaba realizando con anillos de humo que, a su vez, se inspiraban en un artículo de Helmholtz sobre los anillos vorticiales en fluidos incompresibles. Thomson y Tait llegaron al convencimiento de que el estudio y la clasificación de todos los nudos posibles explicaría por qué los átomos absorbían y emitían luz en frecuencias determinadas. Thomson, por ejemplo, creía que el sodio podría ser un enlace de Hopf debido a las dos líneas características de su espectro. La teoría tenía el respaldo de personajes de peso, como James Clerk Maxwell, que afirmaba que la teoría satisfacía más condiciones que cualquiera de sus competidoras.

Así pues, Tait se embarcó en solitario en la aventura de realizar un estudio y tabulación completa de los nudos en un intento de comprender cuando dos nudos eran “diferentes”. Sólo al final recibió la ayuda de C.N. Litttle. La idea intuitiva de Tait sobre lo que es “igual” y “diferente” es todavía útil. Dos nudos son “isotópicos” (iguales) si uno puede ser manipulado de forma continua en 3 dimensiones, sin que existan autointersecciones, hasta que tenga el aspecto del otro.

Tabla (parcial) de nudos de Tait
En la ilustración podemos ver parte del trabajo de Tait: una enumeración de nudos y enlaces en términos del número de cruces en una proyección plana. Si la teoría de Kelvin hubiese sido una base correcta para la clasificación de los elementos químicos entonces las tablas de nudos de Tait habrían sido los cimientos de la tabla periódica. Pero la teoría de Kelvin demostró ser completamente errónea, y físicos y químicos perdieron el interés por el trabajo de Tait.

Una ley no escrita de la ciencia afirma que algunas veces los problemas más interesantes se encuentran en la papelera de otro investigador. Lo que los físicos abandonaron atrajo a los matemáticos, que se centraron en la pregunta que se hizo Tait: ¿cómo podemos dilucidar si dos nudos son isotópicamente iguales? La teoría atómica fallida dejaba para iniciar el trabajo las 163 proyecciones de nudos de Tait y una comprensión rudimentaria de la igualdad isotópica en términos de manipulaciones de las proyecciones. Desde el punto de vista matemático se había encontrado una mina de oro: desde entonces la teoría de nudos ha ido creciendo sin parar, e incluso a reentrado en la física teórica de la mano de la teoría de cuerdas.

Pero la teoría se está reinventando a sí misma continuamente. Sam Nelson, profesor del Claremont McKenna College (EE.UU.), publica un artículo en Notices of the American Mathematical Society en el que describe el nuevo enfoque en la teoría de nudos se ha ido imponiendo en los últimos años y los objetos parecidos a nudos que se han descubierto por el camino. Y ese enfoque parte de los diagramas que representan a los nudos más que de los nudos mismos.

E1D2E3D1E2D3
Desde el punto de vista matemático el cordón con el que se hace el nudo es un objeto idealizado de una dimensión, mientras que el nudo en sí es tridimensional. Los dibujos de los nudos, como los que hizo Tait, son proyecciones del nudo en el plano bidimensional. En estos dibujos se acostumbra a dibujar los cruces por encima o por debajo del cordón como líneas continuas o discontinuas, respectivamente (véase el diagrama). Si tres o más trozos del cordón están uno encima de otro en un punto concreto, lo que se hace es mover ligeramente los trozos sin cambiar el nudo de tal manera que cada punto del plano tiene encima como mucho dos trozos. Así, podemos decir que un diagrama plano de un nudo es la representación de un nudo, dibujada en el plano bidimensional, en la que cada punto del diagrama representa como mucho a dos puntos del nudo. Los diagramas planos de nudos son una herramienta habitual en matemáticas para representar y estudiar los nudos.

Pero, claro, manejar sólo diagramas no es posible, por lo que se han desarrollados distintos métodos para representar la información contenida en los diagramas de nudos. Un ejemplo es la notación de Gauss, que no es más que una secuencia de letras y números en la que a cada cruce en el nudo se le asigna un número y las letras E o D, dependiendo de si el cruce se hace por encima o por debajo. Así, en el nudo del diagrama vemos que si empezamos por 1 y seguimos hacia la derecha el cordón pasa por encima (E1), da la vuelta para pasar por debajo de 2 (D2), continúa para pasar por encima de 3 (E3), luego por debajo de 1 (D1), encima de 2 (E2) y debajo de 3 (D3); por tanto el código en notación de Gauss para ese nudo es E1D2E3D1E2D3.

A mediados de los años 90 del siglo XX los matemáticos descubrieron algo extraño. Existen códigos de Gauss para los que es imposible dibujar diagramas de nudos planos pero que, sin embargo, se comportan como nudos en ciertos casos. En concreto, esos códigos, que Nelson llama “códigos gaussianos no planos”, se comportan perfectamente en algunas fórmulas que se emplean para investigar las propiedades de los nudos.

Si un código gaussiano “plano” siempre describe un nudo en tres dimensiones, ¿qué describiría un código gaussiano no plano? Estaríamos hablando de sustancias etéreas de nuevo, nudos virtuales que tienen códigos gaussianos válidos pero que no corresponden a nudos en el espacio tridimensional. Estos nudos virtuales pueden investigarse aplicando técnicas de análisis combinatorio a los diagramas de nudos.

De la misma forma que, cuando los matemáticos se pararon a considerar la posibilidad de que -1 tuviese una raíz cuadrada, se descubrieron los números complejos (omnipresentes en física e ingeniería), que encierran como “caso particular” los números reales, ahora se ha descubierto que las ecuaciones que se usan para investigar los nudos tridimensionales dan lugar a todo un universo de “nudos generalizados” que tienen sus características particulares pero que incluyen a los nudos tridimensionales como caso particular.

¿Qué utilidad tendrá el descubrimiento más allá de las matemáticas? No lo sabemos. En los libros de matemáticas están ya las ecuaciones de la física del futuro. El problema de los físicos es averiguar cuáles son.

Esta entrada es una participación de Experientia docet en la Edición 2.8 del Carnaval de matemáticas que alberga Cuanta Ciencia

Referencia:

Nelson, Sam  "The Combinatorial Revolution in Knot Theory", Notices of the AMS December (2011) PDF 

viernes, 18 de noviembre de 2011

Una estructura metálica más ligera que el aire.

Microrred ultraligera de níquel-fósforo. Cortesía de HRL.

En las historias de ciencia ficción las naves, herramientas y armas de los extraterrestres casi siempre están hechas de un material “muy ligero, extremadamente resistente y de una estructura y composición desconocidas”. Un material que acaba de presentarse en Science hace que empecemos a plantearnos si no seremos nosotros los alienígenas.

Para empezar el material ha batido el récord mundial de menor densidad para un material estructural que hasta ahora lo poseía un aerogel con una densidad de 1 mg/cm3, inferior a la del propio aire (1,2 mg/cm3). La microrred metálica creada por el equipo encabezado por Tobias Schaedler, de los laboratorios HRL (EE.UU.), tiene una densidad de sólo 0,9 mg/cm3, aún así presenta una capacidad muy alta para absorber energía y recuperar la forma tras una compresión. Estas dos características hacen que se le pueda encontrar aplicaciones en campos diversos, desde la astronáutica y aeronáutica hasta los elementos para la absorción de impactos o la de ruidos.

La microrred consiste en una red muy ordenada y controlada de riostras huecas interconectadas, hechas de una aleación de fósforo y níquel. En la muestra prototipo las riostras tenían unas 100 μm de diámetro y las paredes un espesor de 100 nm. Debido a la importancia de la estructura en las características mecánicas, el proceso de obtención es tanto o más importante que la composición química. Y espectacular.

Para crear la estructura primero hay que crear una plantilla de polímero. Para ello se coloca un placa opaca con agujeros circulares según un patrón sobre un depósito de monómero de tiol-eno fotosensible en estado líquido. Se ilumina la placa con luz ultravioleta y donde la luz llega al monómero, éste polimeriza; la polimerización supone un cambio en el índice de refracción con respecto al monómero, por lo que conforme la polimerización avanza se va creando un túnel óptico por el que la luz se ve dirigida, como en una fibra óptica. Esto es, se forma una guía de ondas del fotopolímero autopropagada o, para visualizarlo mejor, una “fibra” dentro del depósito de monómero líquido. Eligiendo placas distintas se puede conseguir que estas fibras tengan distintas direcciones y que se intersecten, creando una red interconectada. Se elimina entonces el monómero que no ha reaccionado con un disolvente y el resultado es una estructura de microrred, en la que las guías de onda autopropagadas son los miembros estructurales de la red, las riostras.

Esta plantilla de la red se sumerge entonces en una disolución de catalizador antes de introducirla en una disolución de niquel-fósforo. La aleación de níquel-fósforo se deposita catalíticamente en la superficie de las riostras de polímero hasta un espesor de 100 nm. Una vez terminada la deposición, el polímero se elimina con hidróxido sódico, lo que deja una geometría de red idéntica pero de tubos huecos de níquel-fósforo. La estructura es tan liviana que si tomamos una unidad de volumen sólo el 0,01% estará ocupado por la aleación, de aquí la densidad tan sumamente baja.

Al igual que ocurre con las construcciones de ingeniería, las propiedades de la estructura son diferentes a la de la aleación en bruto. Ésta es muy frágil, pero cuando se comprime la microrred los tubos huecos no se parten, sino que se doblan como si fuesen pajitas de refresco, con un alto grado de elasticidad . La microrred puede comprimirse hasta la mitad de su volumen y retorna a su forma original sin daño apreciable. (Véase el vídeo).



Démonos cuenta de que el procedimiento puede aplicarse a todo compuesto que pueda depositarse formando una película, por lo que el repertorio de candidatos con los que ensayar este forma de microingeniería es amplísimo.

Entramos en el territorio inexplorado de la microingeniería estructural, cualquiera sabe hasta dónde nos llevará.


Esta entrada es una participación de Experientia docet en la IV Edición del Carnaval de la Tecnología que alberga Eureka y en la IX Edición del Carnaval de Química que acoge Hablando de ciencia.  

Referencia:

Schaedler, T., Jacobsen, A., Torrents, A., Sorensen, A., Lian, J., Greer, J., Valdevit, L., & Carter, W. (2011). Ultralight Metallic Microlattices Science, 334 (6058), 962-965 DOI: 10.1126/science.1211649


miércoles, 16 de noviembre de 2011

La cinética química en las nubes interestelares podría ser muy diferente a la que se cree.




Cuando nos planteamos la evolución del universo solemos hablar de materia y energía en términos muy genéricos (radiación, gas, partículas, polvo, etc.) y puramente físicos, como si las reacciones químicas fuesen algo más reciente y que no tuviesen nada que ver con la formación de las estrellas, la evolución de las nubes interestelares, o la formación de los planetas. Sin embargo, las reacciones químicas juegan ya un papel importante en el universo primitivo.

Las reacciones astroquímicas son poco conocidas y, en principio, difieren mucho de la química terrestre por el entorno en el que tienen lugar: temperaturas próximas al cero absoluto, tasas de colisión (choques) entre especies (átomos, iones, moléculas) bajísimas, exposición a radiaciones ionizantes, etc. Estas condiciones hacen que se encuentren especies que son impensables en la Tierra. Pero no solamente especies, también se están encontrando resultados de velocidades de reacción que son completamente inesperados y anti-intuitivos. Veamos dos casos muy sencillos pero de consecuencias importantes.

Cuando un átomo neutro y un ion positivo se encuentran pueden ocurrir alguna de estas reacciones:

[a] A + B+ A+ + B
[b] A + B+ A+ + B + γ
[c] A + B+  (AB)+ + γ

donde γ es un fotón. Estas reacciones se llaman reacciones de intercambio de carga binarias (RICB), pues lo único que ocurre es que existe un intercambio de un electrón entre las dos especies. En la química terrestre lo habitual es [a], pero [c] es la siguiente posibilidad más probable con la salvedad de que, si bien la teoría dice que debe emitirse un fotón, la cantidad de colisiones hace que la liberación de energía se haga en forma de calor. La reacción [c] se denomina asociación radiativa (AR).

Un equipo de investigadores encabezado por Wade Rellergert, de la Universidad de California en Los Ángeles (EE.UU.), ha estudiado a temperaturas sólo unas milésimas por encima del cero absoluto la AR entre un átomo de calcio y otro de iterbio:

40Ca + 174Yb+  (CaYb)+ + γ

Átomos e iones se hacían reaccionar en una trampa híbrida (magneto-óptica) de iones donde los láseres se habían encargado de enfriarlos adecuadamente. La velocidad de reacción medida fue 4 órdenes de magnitud mayor (¡diez mil veces más rápida!) de la que se suele asumir para la RA en estas condiciones. Varias comprobaciones y cálculos teóricos confirmaron que el valor era correcto. Los resultados aparecen en un preprint subido a arXiv [1].



Por otra parte, el equipo de Felix Hall, de la Universidad de Basilea (Suiza), ha encontrado en RICB ultrafrías muy sencillas, también en trampas iónicas híbridas, una química muy compleja. En este caso los investigadores han hecho reaccionar iones de calcio con átomos de rubidio:

87Rb + 40Ca+

observando todas las reacciones posibles ([a], [b], [c]).

Lo interesante de los experimentos de Hall et al., cuyos resultados están disponibles en arXiv [2], es que demuestran los cálculos teóricos según los que, si el ion calcio está excitado en el momento de encontrarse con el átomo de rubidio puede emitir un fotón de muchas más formas que si está en el estado de menos energía. Es decir, la luz excita el ion, lo que aumenta sus probabilidades de reaccionar emitiendo un fotón; el efecto neto es que la luz actúa de catalizador. En concreto si el ion de calcio está en el segundo nivel de excitación la reacción es 100 veces más rápida que en estado fundamental.

¿Cómo interpretamos estos datos? Estos estudios demuestran que los electrones en un átomo muy lento (muy frío) tienen tiempo de interactuar con un ion cuando colisionan. La RCIB habitual a temperatura ambiente [a], en la que el electrón salta del átomo al ion durante un contacto brevísimo, se hace muy improbable. En vez de eso, el átomo y el ion están mucho más tiempo juntos en un estado que recuerda una molécula excitada [c], que tiene una alta probabilidad de emitir un fotón, lo que le da a las velocidades de reacción un empujón significativo (e inesperado).

Para modelar la actividad y la historia de las nubes de gas los astrofísicos hacen uso de bases de datos con información sobre las reacciones químicas, pero los datos están incompletos, con muchas reacciones aproximadas o extrapoladas. Estos resultados tan sorprendentes ponen aún más de relieve la necesidad de realizar estudios quimicocuánticos sistemáticos y mediciones experimentales de las velocidades de reacción.

Esta entrada es una participación de Experientia docet en la IXEdición del Carnaval de Química que acoge Hablando deciencia

Referencias:

[1] W Rellerget et al, 2011, arXiv:1104.5478 [pre-print]
[2] F Hall et al, 2011, arXiv:1108.3739 [pre-print]



martes, 15 de noviembre de 2011

La conquista del libre albedrío.



El pasado 13 de noviembre Eddy Nahmias, profesor de filosofía de la Universidad Estatal de Georgia (EE.UU.) publicaba un interesante artículo en The Stone, un foro de discusión filosófica del New York Times, titulado Is Neuroscience the Death of FreeWill? (¿Es la neurociencia la muerte del libre albedrío?). Recomendamos leer el artículo en su totalidad, del que vamos a destacar los que consideramos sus párrafos fundamentales. A continuación pondremos la discusión en contexto y terminaremos exponiendo qué espacio, siempre según nuestra opinión, queda para el libre albedrío y cómo se conquista; pues no está dado por defecto y, por tanto, no todo el mundo lo tiene.

Estos son los párrafos que consideramos que encierran las premisas del argumento de Nahmias:

Las ciencias de la mente realmente nos dan buenas razones para pensar que nuestras mentes están hechas de materia. Pero concluir que la consciencia o el libre albedrío son, por tanto, ilusiones es ir demasiado rápido. Es como inferir a partir de los descubrimientos de la química orgánica que la vida es una ilusión sólo porque los organismos vivos están hechos de materia no viva. Mucho del progreso en la ciencia viene precisamente de comprender todos en términos de sus partes, sin sugerir la desaparición de los todos. No hay razón para definir la mente o el libre albedrío de una manera que cercena esta posibilidad para progresar.

[…] Pero primero necesitamos definir el libre albedrío de una forma más razonable y más útil. Muchos filósofos, incluido yo, entendemos el libre albedrío como un conjunto de capacidades para imaginar cursos de acción futuros, deliberar acerca de las propias razones para elegirlos, planificar las propias acciones a la vista de esta deliberación y controlar las acciones cuando se enfrentan a deseos competidores. Actuamos según nuestro propio libre albedrío en tanto en cuanto tenemos la capacidad de ejercer estas capacidades, sin presión irrazonable externa o interna. Somos responsables de nuestras acciones hasta el punto en que poseamos estas capacidades y tengamos oportunidad para ejercerlas.

Empecemos con el primer párrafo. ¿Si la mente es materia, implica ello que no hay libre albedrío? No necesariamente, como indica Nahmias. Pero tampoco se puede afirmar que esa posibilidad pueda excluirse. Lo único que podemos afirmar es que, si la mente es materia, está sujeta a las leyes que gobiernan la materia. Por lo tanto el problema se ve reducido en cierta manera a la posibilidad de la existencia de libertad en un universo determinista. ¿Es nuestro universo determinista?

Habitualmente se suele apelar a las fenómenos de la mecánica cuántica para encontrar algo de indeterminismo en el universo. Los que emplean este razonamiento suelen partir de unas hipótesis que pertenece al siglo XVII, en el que el determinismo consistía en afirmar la existencia de cadenas causales para cada fenómeno. Sin embargo, podemos afirmar sin temor a equivocarnos demasiado que el universo es determinista en un sentido estadístico. Yo no sé si un determinado átomo de yodo-131 va a desintegrarse en los próximos días, pero sí puedo afirmar que en los próximos ocho días la mitad de los átomos de yodo-131 presentes en la muestra lo habrán hecho, y usar este conocimiento para el tratamiento del cáncer. En este sentido, la ciencia macroscópica, el universo a efectos prácticos, es determinista. ¿Es posible la libertad en un universo así?

En el segundo párrafo, Nahmias nos da una definición de libre albedrío. De ella vamos a destacar esta expresión “sin presión irrazonable externa o interna”. No vamos a entrar aquí en detalle, que el lector puede encontrar fácilmente incluso sin salir de este blog, pero esta es la verdadera clave. La genética, la fisiología, la neurociencia y la psicología demuestran que nuestros genes y nuestro entorno moldean nuestra personalidad y ésta, a su vez, marca nuestras tendencias ( a ser felices, a deprimirnos, actividades que nos gustan, etc.); que nuestra herencia evolutiva nos hace percibir y conocer el mundo de determinada manera haciendo que nuestro encéfalo cree un mundo que nosotros pensamos que es real; que nuestras percepciones, decisiones y juicios se ven afectados por los niveles (natural o artificialmente inducidos) de determinadas sustancias en nuestra sangre; que la abrumadora mayoría de las decisiones que tomamos son inconscientes; y que, finalmente, tendemos a racionalizar nuestras decisiones una vez tomadas. De forma más o menos deliberada todos estos condicionantes son usados por vendedores, psicólogos, jefes, diseñadores, propagandistas, fundadores de sectas, gurúes varios, manipuladores en general y estafadores en particular, para lograr sus fines. Conociendo todo esto, ¿es razonable pensar que pueda existir el libre albedrío?

Nahmias expresa su conclusión de esta manera (negritas mías):

Por tanto, ¿significa la neurociencia la muerte del libre albedrío? Bueno, podría ser si demostrase de alguna manera que la deliberación consciente y el autocontrol racional no existiesen realmente o que funcionasen en un rincón protegido del cerebro que no tuviese influencia sobre nuestras acciones. Pero ninguna de estas posibilidades es probable. Es cierto, las ciencias de la mente continuarán demostrando que la consciencia no trabaja exactamente de la manera en que pensábamos, y ya sugieren limitaciones significativas a la extensión de nuestra racionalidad, autoconocimiento y autocontrol. Estos descubrimientos sugieren que la mayoría de nosotros poseemos menos libre albedrío de lo que tendemos a creer, y puede que alimenten debates sobre nuestros grados de responsabilidad. Pero no demuestran que el libre albedrío sea una ilusión.

Tiendo a estar de acuerdo con este párrafo. Esto es, vivimos en un universo estadísticamente determinista, en el que, suponiendo que el libre albedrío pueda existir, está demostrado que nuestra libertad de juicio y de toma de decisiones está muy limitada. Somos muchísimo menos libres de lo que pensamos que somos. No obstante, ello no implica que deje de tener sentido la responsabilidad ética o penal; sin embargo, sí debería tener consecuencias para las formas que deban adoptar los castigos y/o tratamientos de los responsables.

Y es que el libre albedrío, desde nuestro punto de vista, no viene dado, no es la opción por defecto del ser humano. Este libre albedrío tan limitado debe ser conquistado mediante el conocimiento, el autoconocimiento y el del mundo. La existencia de las matemáticas y la lógica (no debe confundirse con su historia o con los matemáticos, individual y colectivamente) en sus distintas formas es la expresión de que este espacio de libertad es alcanzable: la racionalidad libre de sus condicionantes humanos. De la misma forma que el autoconocimiento es la recomendación filosófica por excelencia, el “conócete a ti mismo” que Platón pone reiteradamente en la boca de Sócrates, la idea de que la libertad personal debe ser conquistada por el conocimiento es central en la filosofía de Spinoza.

Efectivamente, Spinoza considera que somos esclavos mientras estemos bajo el control de los procesos mentales propios que no comprendemos, y tan libres como seamos capaces de comprender creativamente el universo, incluyendo nosotros mismos. La ciencia de hoy parece darle la razón.

domingo, 13 de noviembre de 2011

Cuasiparece, pirita no es.


El pasado viernes, al finalizar mi conferencia sobre “El universo matemático de los cuasicristales” en la Facultad de Química de la Universidad de Sevilla, recibí por Twitter de @copepodo una pregunta en relación a un grano de cuasicristal con hábito dodecaédrico regular y simetría icosaédrica de la celda unidad. Me refiero a esta imagen:
Grano de cuasicristal de Ho-Mg-Zn de 22mm de arista.


La pregunta se refería a ella como pirita. Los cristales de pirita, efectivamente, pueden adoptar un hábito dodecaédrico irregular propio, llamado piritoedro. En éste, cada pentágono está formado por cuatro lados iguales y uno desigual. Este hábito viene derivado de la estructura cúbica centrosimétrica de la pirita. Esta es una imagen de granos de piritoedros:

Granos piritoédricos de pirita

Gráficamente:

Piritoedro
Dodecaedro


jueves, 10 de noviembre de 2011

Un material que se autorrepara a temperatura ambiente.


Un gel puede repararse a sí mismo simplemente poniendo en contacto las superficies de rotura. El material es capaz de autorrepararse incluso después de cinco días de haber sufrido el daño expuesto a un ambiente rico en oxígeno, en ausencia de luz y a temperatura ambiente.

Un gel es básicamente una estructura tridimensional sólida que alberga un líquido. El gel de ducha es un ejemplo, pero la gelatina comestible se aproxima más a la idea de gel técnico. La combinación de plasticidad y estructura sólida los hace candidatos ideales en el desarrollo de materiales inteligentes.

Los materiales autorreparadores tienen la capacidad de repararse a sí mismos cuando sufren un daño. Esta es una característica importante en los implantes médicos o en dispositivos astronáuticos. Los materiales inteligentes que presentan esta característica la consiguen por dos vías, bien por química supramolecular del tipo interacciones huésped-hospedador, que son muy rápidas pero muy sensibles a la presencia de agua, o por enlaces covalentes específicos, tolerantes al agua y a otros grupos funcionales competidores, pero que requieren un aporte energético (luz, calor o ambos) para reconstruir los enlaces.

Se deduce de lo anterior que la química del material inteligente autorreparador ideal es aquella en la que la reparación se produce sin estimulación y no depende de condiciones especiales del entorno, más allá del contacto físico de las superficies a reparar.

Un paso en esta dirección lo ha dado el equipo encabezado por Keiichi Imato, de la Universidad Kyushu (Japón), al conseguir una molécula con capacidad de entrecruzamiento, es decir, de formar redes tridimensionales, que puede dividirse formando un par de radicales, moléculas muy reactivas por tener electrones desparejados.

La clave química del material está en que en realidad la molécula unidad, diarilbibenzofuranona (DABBF), no es realmente una molécula estable, sino que está en equilibrio con sus dos partes constituyentes, radicales de arilbenzofuranona, es decir, está permanentemente rompiéndose y creándose. Esto significa que simplemente hay que poner en contacto dos superficies de DABBF para que terminen uniéndose o, lo que es lo mismo, si una superficie de DABBF se ve dañada el mero contacto hace que se autorrepare. En 24 horas el gel tiene la misma fortaleza que antes del daño.



Este resultado es más una prueba de principio que otra cosa, pero eso no le resta un ápice de su interés. Las aplicaciones más evidentes, como decíamos arriba, están en los campos de la exploración espacial y en los implantes médicos. Una barrera que queda por superar es la de la toxicidad, sin bien el DABBF no tiene pinta de ser muy tóxico, el disolvente que le acompaña (orgánico) lo es, y los radicales libres suelen serlo, y mucho.

Esta entrada es una participación de Experientia docet en la IV Edición del Carnaval de la Tecnología que alberga Eureka y en la IX Edición del Carnaval de Química que acoge Hablando de ciencia.

Referencia:

Imato, K., Nishihara, M., Kanehara, T., Amamoto, Y., Takahara, A., & Otsuka, H. (2011). Self-Healing of Chemical Gels Cross-Linked by Diarylbibenzofuranone-Based Trigger-Free Dynamic Covalent Bonds at Room Temperature Angewandte Chemie International Edition DOI: 10.1002/anie.201104069


miércoles, 9 de noviembre de 2011

Más allá del principio de Peter: el azar como política de recursos humanos.



En una gran organización la gente viene y va. Siempre hay decisiones que tomar sobre a quien se promociona, las nuevas promesas recién llegadas frente a los cuadros medios experimentados, mientras todo el mundo espera el ascenso. Dados dos candidatos para un puesto, uno muy competente en su trabajo actual y el otro más errático y, en general, con menos éxito, la mayoría de la gente considera una obviedad que debe ascender el primero y no el segundo. Sin embargo, en 1969, Laurence Peter introdujo el famoso principio que lleva su nombre, que afirma que cada nuevo miembro de una organización jerárquica asciende en la jerarquía hasta que alcanza su nivel de máxima incompetencia. Una afirmación que está en contra, aparentemente, del sentido común y que muchos citan como un chiste. Pero es muy probable que no lo sea.

Efectivamente, un resultado obvio de la estrategia promocional basada en el sentido común de ascender al competente es que todo el mundo promocionará hasta que llegue a un trabajo para el que no sea bueno. En ese momento dejará de ascender y la organización tenderá a tener incompetentes en cada puesto [asumimos que el departamento de recursos humanos ya es incompetente, no es consciente de esta situación y es incapaz de intervenir eficazmente]. La eficiencia de la organización disminuye. A esto es a lo que se refería Peter cuando afirmaba que cada nuevo miembro de la organización asciende hasta alcanzar su máximo nivel de incompetencia.

El principio de Peter se basa en que el departamento de recursos humanos tiene poco que decir más allá de administrar las nominas. Dicho de forma más técnica, Peter asume la hipótesis, no necesariamente cierta, de que existe poca o ninguna correlación entre las competencias necesarias para desempeñar un puesto y el nivel en la organización. Aquí chocamos de nuevo con el sentido común que afirma que sí existe esa correlación como usted, querido lector, probablemente haya pensado al leer la frase anterior. Sin embargo, el hecho empírico es que existe un patrón de promoción en las organizaciones que hace que las personas que son buenas haciendo determinadas cosas alcancen puestos en los que ya no se hacen esas cosas: en muchos casos pasan a “administrar” personas que las hacen. Es decir, en muchas organizaciones se actúa de hecho como si no existiese correlación entre competencias y nivel jerárquico. Veamos algunos ejemplos familiares: los buenos profesores dando clase no suelen ser buenos directores de instituto, futbolistas de mucho éxito no siempre se convierten en buenos directores deportivos, magníficos investigadores es probable que no sean buenos decanos, estupendos atletas puede que no sean buenos entrenadores, vendedores superlativos casi nunca son buenos jefes de ventas y extraordinarios estudiantes con notas magníficas puede que no sean buenos médicos.

Un grupo de investigadores de la Universidad de Catania, encabezados por Alessandro Pluchino, ha ido un paso más allá y ha estudiado las distintas políticas de promoción usando modelos computacionales de distintas organizaciones con distintos niveles a los que promocionar. Increíblemente (o no), han encontrado que la política de ascender siempre a la persona menos competente puede maximizar la competencia general de la empresa, mientras que ascender al más competente puede disminuirla significativamente. Los resultados se publicaron en Physica A. La investigación fue merecedora de un Ig-Nobel en 2010.

Los investigadores compararon los cambios en la organización en su conjunto con tres políticas de promociones distintas (al mejor, al peor, al azar) en los dos supuestos de que hay o no hay correlación entre las capacidades necesarias para realizar tu trabajo actual y aquel al que se te promociona.
Si, tal y como asume Peter, no existe correlación entre trabajos nuevos y antiguos entonces “al mejor” lleva a una pérdida del 10% en la eficiencia de la organización, ello se debe a la gente que es mucho menos competente en sus nuevos trabajos que en los anteriores, mientras que “al peor” lleva a una ganancia del 12%, ya que la gente que era mala en un puesto lo hará igual de mal o mejor. En el caso de que exista correlación, “al mejor” lleva a una ganancia del 9% y “al peor” a una pérdida del 5 %.

La cuestión es que en una organización nada es blanco o negro, y la correlación estará en algún punto intermedio. El reto para el departamento de recursos humanos y para el máximo ejecutivo está en superar los resultados al azar: si no hay correlación la promoción al azar incrementa la efectividad de la organización en un 2% y si la hay en un 1%. No parecen grandes números, pero para superarlos el departamento de RR.HH. debe ser, primero, muy competente y, segundo, que su labor no sea interferida por asuntos políticos ajenos a las valoraciones técnicas. Ambos supuestos, mucho nos tememos, es muy improbable que se den completamente. Paradójicamente, por tanto, puede que la mejor decisión para mejorar la eficiencia de la empresa sea dejar de gestionar los recursos humanos y ahorrarse el coste de un departamento y sus reuniones y papeleos asociados.

Habrá quien argumente que promocionar al azar disminuye la moral y los incentivos para el trabajo duro. Pero esto tiene fácil solución: primero, negarlo taxativamente y, segundo, un uso adecuado de la propaganda interna (el departamento de márketing ya lo tienes pagado, después de todo). Lo importante no es la realidad, sino lo que los trabajadores crean que es la realidad.

Referencia:

Pluchino, A., Rapisarda, A., & Garofalo, C. (2010). The Peter principle revisited: A computational study Physica A: Statistical Mechanics and its Applications, 389 (3), 467-472 DOI: 10.1016/j.physa.2009.09.045

viernes, 4 de noviembre de 2011

Conferencia Amazings: Matemáticas de los cuasicristales.

Podrá seguirse en streaming via Amazings.es



miércoles, 2 de noviembre de 2011

Petróleo interestelar.


El petróleo y el carbón se denominan combustibles fósiles porque se parte de la hipótesis (de Lomonósov) de que su origen está ligado a la vida. Si bien existe una hipótesis alternativa que afirma que es posible la producción de petróleo/carbón por medios abióticos (hipótesis de Mendeleiev), la primera es la comúnmente aceptada. Pero ¿qué pasaría si hubiese petróleo/carbón en el medio interestelar? ¿Diríamos que hay vida en el espacio? O, por el contrario ¿qué la hipótesis abiótica del origen del petróleo y el carbón es algo más que una hipótesis?

Durante décadas los astrónomos han conocido la existencia de una serie de picos en el infrarrojo medio provenientes del espacio interestelar, pero no han tenido muy claro de qué podía tratarse. Muchos piensan que estas emisiones no son otra cosa que el resultado de la excitación de hidrocarburos aromáticos policíclicos (PAH, por sus siglas en inglés) por parte de radiación ultravioleta, el mismo fenómeno por el que después de ponerte al sol (fuente de radiación ultravioleta) tu piel desprende calor (radiación infrarroja). Pero no todo el mundo está de acuerdo con esta hipótesis y encuentra puntos débiles, o no tanto, en ella: estas emisiones infrarrojas se han detectado también alrededor de estrellas frías donde no existe la estimulación ultravioleta y, lo que parece más importante, en el medio interestelar no se ha identificado ningún PAH concreto.

Ahora Sun Kwok y Yong Zhang, ambos de la Universidad de Hong Kong (China) y no precisamente unos desconocidos, han propuesto una nueva hipótesis sobre lo que esta emisión significa. Usando datos del Observatorio Espacial Infrarrojo de la ESA y del telescopio Espacial Spitzer de la NASA, los investigadores analizaron los espectros del polvo emitido por novas. En vez de encontrar señales bien definidas, lo que sería consistente con un compuesto puro, bien definido químicamente, esto es, PAH, los investigadores encontraron características que apuntarían más a compuestos alifáticos (lineales, no anillos, que son los aromáticos). De hecho los investigadores apuntan a que lo más lógico es pensar que el origen de la emisión sea materia orgánica con una estructura mixta aromático-alifática, algo que recuerda mucho al carbón o al petróleo. El resultado se publica en Nature.

Estructura propuesta por Kwok y Zhang.

Estructura del carbón.

Démonos cuenta de lo que implica esta idea: las estrellas no sólo estarían produciendo materia orgánica, también la estarían eyectando al medio interestelar. No es nueva, Kwok ya aventuró en su momento que las estrellas viejas son fábricas moleculares capaces de fabricar compuestos orgánicos. Cuando se le dice que, teóricamente, esto es una aberración, Kwok se limita a señalar los datos observacionales.

Si realmente el medio interestelar albergase moléculas orgánicas tan complejas, el descubrimiento sería de una trascendencia enorme. No sólo por lo que significa sobre el origen de los combustibles “fósiles” sino también para el origen de la vida en la Tierra. En los meteoritos se han encontrado compuestos de este tipo, que se presumía se formaban en ellos. Los meteoritos son los restos de un pasado remoto en el que la Tierra era bombardeada con mucha más frecuencia por cometas y asteroides. Si estos compuestos orgánicos complejos están relacionados con el espacio profundo, la hipótesis de que la Tierra, al igual que recibió agua de los cometas para sus océanos, también podría haber recibido las moléculas complejas para la vida cobra fuerza.

Referencia:

Kwok, S., & Zhang, Y. (2011). Mixed aromatic–aliphatic organic nanoparticles as carriers of unidentified infrared emission features Nature, 479 (7371), 80-83 DOI: 10.1038/nature10542