lunes, 30 de enero de 2012

ETCD: un gadget que multiplica tu capacidad de aprendizaje.


Cuando se habla de mejorar nuestro rendimiento intelectual habitualmente de lo que se discute es de realizar determinados ejercicios mentales o jugar a algunos videojuegos concretos, cuando no de llevar tal o cual dieta o tomar suplementos alimenticios, cuando no fármacos (a este respecto véase Como mejorar elrendimiento intelectual de verdad ). Pero imagínate que todo lo anterior fuese secundario, que hubiese un dispositivo que pudieses conectar a tu móvil, iPad o PC y que, efectivamente, mejorase tu capacidad de aprendizaje sin efectos perniciosos evidentes. Ese dispositivo existe, el que se comercialice es una cuestión de tiempo y consideraciones éticas. 

Las investigaciones llevadas a cabo recientemente con distintos tipos de estimulación encefálica para el tratamiento de pacientes con patologías neurológicas ha puesto de manifiesto que un tipo de estimulación cerebral en concreto, llamada estimulación transcraneal por corriente directa (ETCD), puede usarse para mejorar las capacidades lingüísticas y matemáticas, la memoria, la capacidad de resolución de problemas, la atención e, incluso, el movimiento.

El punto clave es que la ETCD no solamente ayuda a recuperar las capacidades perdidas. La ETCD puede usarse para mejorar las capacidades mentales de personas sanas. De hecho, la mayor parte de las investigaciones se han hecho con adultos sanos.

La ETCD usa unos electrodos que se colocan en el exterior de la cabeza para pasar pequeñas corrientes a través del encéfalo durante unos 20 minutos. Las corrientes, de entre 1 y 2 mA (miliamperios), facilitan la activación de las neuronas de estas regiones encefálicas. Aunque el mecanismo no está elucidado del todo, se cree que la estimulación mejora la creación y el mantenimineto de las conexiones implicadas en el aprendizaje y la memoria. La técnica es indolora, todo de momento indica que es segura y que sus efectos se mantienen en el largo plazo.

En caso de comercializarse en un futuro sería un simple dispositivo que te colocarías en la cabeza poco más o menos como ahora te pones los auriculares para escuchar música, y que conectarías a tu ordenador, iPad o similar, cuando te pusieras a estudiar, a practicar con la guitarra o a aprender malabares.

El diseño básico de un dispositivo para ETCD es muy sencillo, de hecho se conoce desde hace más de dos siglos. Ya en el siglo XVIII se realizaron algunos experimentos rudimentarios usando esta técnica para estudiar la electricidad en animales (humanos incluidos) por parte de Luigi Galvani y Alessandro Volta. Estos resultados llevaron a la primera aplicación clínica en 1804 por parte de Giovanni Aldini (sobrino de Galvani), en la que la técnica mejoraba el estado de ánimo de pacientes melancólicos. Desafortunadamente este descubrimiento no recibió mucha atención y no se continuó la investigación, favoreciendo tratamientos más enérgicos, como los que derivaron en el electroshock.

En los años 60 del siglo XX hubo un breve resurgimiento del interés en la ETCD cuando se comprobó que la estimulación podía afectar al funcionamiento del cerebro cambiando la excitabilidad cortical. También se descubrió que la estimulación positiva y negativa tenía diferentes efectos en dicha excitabilidad cortical. Sin embargo, los efectos más inmediatos y espectaculares de las drogas así como su simplicidad de uso hicieron que se abandonase de nuevo la investigación.

No ha sido hasta hace unos 7 años que la ETCD se ha redescubierto por tercera vez. Esta vez el hallazgo vino por el incremento en el interés por comprender el funcionamiento del cerebro y como estimularlo (concretamente la estimulación magnética transcraneal) y la disponibilidad de nuevas técnicas de imagen como la resonancia magnética funcional (fMRI).

El número creciente de resultados positivos en los estudios de primera fase ha llevado a un grupo de investigadores, encabezado por Roi Cohen Kadosh, de la Universidad de Oxford (Reino Unido), a plantearse las cuestiones éticas que suscitaría el uso generalizado de la ETCD. Sus reflexiones aparecen en Current Biology

El artículo incluye consideraciones generales sobre si, de estar disponible (como parece que estará), debería emplearse un sistema de mejora de las capacidades cognitivas, si sería ético. El texto es de acceso libre y está disponible en la referencia al final de esta entrada, por lo que no vamos a entrar en ese detalle. En vez de ello vamos a fijarnos en algunos aspectos de esta tecnología que creemos conviene resaltar y que quizá sean los que merezca la pena discutir. Desde ya advertimos de que aún no se conocen los efectos secundarios en general, ni sus consecuencias de uso en el cerebro de niños.

La ETCD permite a la persona obtener mayor rendimiento del esfuerzo que pone en una actividad cognitiva. Es decir, no hace milagros, tendrás que seguir estudiando o practicando pero la recompensa a tu esfuerzo será mayor.

Es un primer paso en la maximización del potencial humano, pero no iguala a las personas, al contrario. Lo podrán usar niños, ancianos, adolescentes o adultos, pero a cada uno según su capacidad. Probablemente las personas más inteligentes o más trabajadoras obtengan mayores beneficios que otros. Esto está aún por determinar. Lo que está claro es que se abrirá una brecha entre los que tengan acceso a la tecnología y los que no, aunque la tecnología es muy simple y barata (de hecho habrá que tener cuidado con los que intenten fabricársela ellos mismos: no lo hagas en casa).

En principio, y a diferencia de los fármacos, no hay límites al uso de la ETCD, por lo que puede pensarse que no es algo tan serio como tomar pastillas, aunque su efectos sean igual de fuertes. Esta falta de capacidad de limitación externa, como la que tienen los psicotropos por ejemplo, puede convertir la ETCD en un riesgo para la salud.


En conclusión, estamos ante lo que puede ser la próxima revolución cognitiva. En estos momentos se necesita más investigación para entender mejor los riesgos y beneficios en poblaciones específicas (niños, ancianos, enfermos, etc.) y en la vida real, ya que los estudios hechos hasta ahora son relativamente pocos, a pequeña escala y en laboratorios, pero ello no le resta un ápice de emoción.

Referencia:

Roi Cohen Kadosh, Neil Levy, Jacinta O’Shea, Nicholas Shea, & Julian Savulescu (2012). The neuroethics of non-invasive brain stimulation Current Biology, 22 (4) PDF

domingo, 29 de enero de 2012

¿Qué contenidos valoras más de ED?


Como sabes, querido lector, en Experientia docet toco una variedad de temas que, pienso, encontramos interesantes. Pero hay algunos que tú valoras más que otros y que son los que, muy probablemente, te llevasen a convertirte en una de los más de 2300 personas que están suscritas a los contenidos. Hoy te pido que me ayudes a conocerte mejor y, de esta forma, mejorar Experientia docet para ti. En la barra lateral del blog hay una encuesta en la que te pregunto exactamente eso “¿Qué contenidos valoras más de ED?”. Sólo te llevará unos segundos.

Gracias por leer ED.


viernes, 27 de enero de 2012

La estructura algebraica del universo.



Para el profano toda la matemática es lo mismo y, sin embargo, no todas las matemáticas son creadas iguales. Existe una rama de ellas que es tremendamente abstracta, tanto que sólo los matemáticos especializados en ella le encuentran algún sentido: el álgebra abstracta. Paradójicamente el universo parece recogerse en ella.

El álgebra como abstracción comenzó su camino a finales del siglo XVIII y floreció en el XIX. Sin embargo, cada uno de sus pasos se encontró con la incomprensión de la mayoría de los matemáticos con mentalidades más clásicas (enfocadas a la geometría) o más modernas (fascinadas por el análisis y sus aplicaciones en física e ingeniería). Este fue el caso de Abel, Ruffini, Galois o Grassmann. El caso de este último es muy ilustrativo: hoy día cualquier estudiante universitario que haya tenido un curso de matemáticas ha estudiado a Grassmann sin saberlo, es lo que llamamos álgebra lineal. Grassmann en su día tuvo que abandonar las matemáticas por la incomprensión de un Cauchy, un Möbius o un Hamilton y dedicarse a su otra pasión, el sánscrito, lo que, esta vez sí, le granjeó un doctorado honorífico por la Universidad de Tubinga. Y es que esas abstracciones suyas de vectores y espacios vectoriales no tenían utilidad alguna, no digamos ya grupos, anillos o cuerpos.

En 1960 Eugene Wigner escribió un ensayo titulado “La irrazonable efectividad de las matemáticas en las ciencias naturales” en el que se maravillaba de que estos productos de la pura abstracción humana, estos grupos y matrices, estos espacios y variedades, terminasen siendo imágenes de cosas reales o procesos reales en el mundo real. Y es que la revolución de la física de la primera mitad del siglo XX encontró apoyo en las ideas más abstractas del siglo XIX para la descripción tanto del universo a gran escala como del interior del átomo. De hecho, las física más especulativa del siglo XXI también se apoya en los aspectos más abstractos del álgebra del siglo XX. Veamos, a título de ilustración y sin ánimo de ser exhaustivos, algunos ejemplos.

Teoría especial de la relatividad (1905)

Las mediciones del espacio y el tiempo realizadas en un marco de referencia pueden ser “traducidas” a mediciones hechas en otro (que se mueve, por supuesto, a una velocidad constante con respecto al primero) mediante la transformación de Lorentz. Estas transformaciones pueden incluirse en un modelo como rotaciones de un sistema de coordenadas en un cierto espacio de cuatro dimensiones. En otras palabras, un grupo deLie (1870).

Teoría general de la relatividad (1916)

El espacioteimpo de cuatro dimensiones se curva (distorsiona) por la presencia de materia y energía. Para describir este fenómeno adecuadamente hemos de recurrir al cálculotensorial, iniciado por Hamilton (1846), desarrollado por Ricci-Curbastro (1890) basándose en Riemann y Grassmann, y popularizado por Levi-Civita (1900).

Mecánica cuántica matricial (1925)

Cuando el joven Werner Heisenberg estaba trabajando con las frecuencias de las radiaciones emitidas por un átomo que “salta” de un estado cuántico a otro, se encontró mirando varios cuadros de datos que tenían como característica que el número de la columna n-ava de la fila m-ava representaba la probabilidad de que un átomo “saltase” del estado m al estado n. La lógica de la situación le indicaba que tenía que multiplicar estos cuadros entre sí y sugirió la única técnica adecuada para hacerlo. Pero, cuando intentó llevar a cabo la multiplicación efectiva, se encontró con la sorpresa de que no era conmutativa. Multiplicar el cuadro A por el cuadro B no era lo mismo que multiplicar el cuadro B por el cuadro A. ¿Qué estaba pasando? Su suerte fue que investigaba en la Universidad de Gotinga y Emmy Noether y David Hilbert le explicaron muy amablemente la teoría de matrices que Cayley ya recogía en un libro de texto (1858), y las contribuciones posteriores de Hamilton, Frobenius y Cauchy, entre otros.

Hadrones y quarks (1964)

Para comienzo de los años 60 del siglo XX los físicos habían descubierto todo un mundo de partículas subatómicas llamadas hadrones. Murray Gell-Mann, a la sazón un joven investigador en el Instituto de Tecnología de California, se dio cuenta de que las propiedades de los hadrones, si bien no seguían un patrón lineal evidente, adquirían sentido como parte de un grupo de Lie, uno que aparece cuando estudiamos las rotaciones en un espacio bidimensional cuyas coordenadas sean números complejos. Trabajando con esta idea y los datos, Gell-Mann se dio cuenta de que su primera impresión era superficial. El grupo equivalente de 3 dimensiones complejas explicaba muchas más cosas pero requería de la existencia de partículas que aún no se habían observado. Gell-Mann se fió de su intuición, sus datos y las matemáticas y publicó lo que había encontrado. Las partículas que había predicho Gell-Mann dieron en llamarse quarks.

Teoría de cuerdas (1985)

Trabajando con algunas ideas de Riemann, Erich Kähler propuso en los años 30 del siglo XX una familia de variedades que tienen una propiedades generales muy interesantes. Cada superficie de Riemann, por ejemplo, es una variedad de Kähler. Entre 1954 y 1957 Eugenio Calabi identificó una subclase de variedades de Kähler y conjeturó que su curvatura debía tener un tipo de simplicidad muy interesante. Esta conjetura de Calabi fue demostrada por Shing-tung Yau en 1977.

En 1985 el grupo de investigación de Edward Witten se refirió a esta subclase de variedad como Calabi-Yau en un trabajo en el que identificaban su lisura (suavidad, ausencia de irregularidades), la simplicidad de su curvatura, como el trasfondo ideal en el que ubicar los movimientos de las cuerdas que, según la teoría, nuestros instrumentos interpretan como toda la variedad de partículas subatómicas y fuerzas, incluida la gravedad. El hecho de que la variedad de Calabi-Yau tenga 6 dimensiones parece muy raro, pero resulta que 3 de ellas están “plegadas” desde nuestra perspectiva macroscópica, de la misma forma que una maroma de barco manifiestamente tridimensional parece unidimensional a una distancia suficiente.

Una vez dije en una conferencia que la física del futuro, la descripción del universo que compartirán nuestros nietos, existe ya en la facultad de matemáticas. Eso sí, puede que la distribución no sea isótropa, y haya algo más concentración en los departamentos de álgebra.

Esta entrada es una participación de Experientia docet en la Edición 2.X del Carnaval deMatemáticas que organiza Resistencia Numantina.  

jueves, 26 de enero de 2012

Los aminoácidos como catalizadores para la formación de azúcares en la Tierra primitiva.




Uno de los grandes misterios del origen de la vida, y un tema recurrente en Experientia docet, es la homoquiralidad en aminoácidos y azúcares, es decir, por qué existiendo en la naturaleza aminoácidos y azúcares que son idénticos químicamente pero que sólo se diferencian como lo hace la mano derecha de la izquierda, en los seres vivos sólo hay aminoácidos de una clase y azúcares de la otra, en concreto, aminoácidos L y azúcares D. Pues bien, una nueva investigación no nos da la respuesta al problema, pero puede que lo reduzca.

Un grupo de investigadores encabezado por Laurence Borroughs, de la Universidad de York (Reino Unido), ha recreado en el laboratorio un proceso que podría haber tenido lugar en la Tierra prebiótica y que habría dado lugar a los azúcares más sencillos. En este proceso los aminoácidos actúan como catalizadores. Los resultados aparecen publicados en Organic & Biomolecular Chemistry.

El equipo encontró que usando L-aminoácidos sencillos para catalizar la formación de azúcares se obtenían predominantemente D-azúcares. A esto nos referíamos más arriba cuando decíamos que este resultado podía reducir el problema: la existencia previa de L-aminoácidos ya preconfiguraría la existencia de D-azúcares, sólo quedaría por explicar los primeros y sobre ello hay teorías interesantes (véase, por ejemplo, aquí y aquí).




En concreto, mientras que los ésteres de L-prolina producían L-tetrosas, los ésteres de L-leucina, L-alanina y L-valina generaban D-tetrosas. Los rendimientos de estas reacciones son los que justificarían la conexión entre los L-aminoácidos naturales y los D-azúcares. Curiosamente esos rendimientos son muy sensibles al pH y son enantioselectivamente óptimos, es decir, producen el máximo de moléculas de una quiralidad (L,D) dada, a pH neutro.

Esta entrada ha sido editada para corregir y homogeneizar la nomenclatura tras una amable indicación de @carlosxabier 

Esta entrada es una participación de Experientia docet en la IX Edición del Carnaval de Biología que organiza Laciencia de la vida y en la XI Edición del Carnaval de Química que acoge La aventura de la ciencia  


Referencia:

Burroughs, L., Clarke, P., Forintos, H., Gilks, J., Hayes, C., Vale, M., Wade, W., & Zbytniewski, M. (2012). Asymmetric organocatalytic formation of protected and unprotected tetroses under potentially prebiotic conditions Organic & Biomolecular Chemistry DOI: 10.1039/C1OB06798B

miércoles, 25 de enero de 2012

Programación genética, próximamente en tu supermercado.


Yogur de “frutas del bosque”, refresco de “naranja”, champú de “limón”, limpiador de “pino”, hidratante de “aguacate”. El diseño de aromas, los sabores de la comida y la bebida envasada y los olores de los productos de limpieza, cosmética y demás, es un negocio multimillonario. Las grandes compañías internacionales de aromas invierten millones de euros todos los años en investigación y desarrollo, incluyendo una gran cantidad de ensayos con paneles de consumidores.

Pero sacar algo en claro de los resultados de los paneles es muy difícil. Las preferencias de los sujetos pueden variar tanto que no aparece ningún patrón evidente. La salida obvia a esta dificultad sería recoger suficientes datos acerca de cada sujeto como para poder filtrar después las inconsistencias. El problema está precisamente en recoger esos datos de forma fiable. Después de oler 40 muestras ni tú sabes qué te gusta o te deja de gustar. Así, los ejecutivos de las empresas se ven tomando decisiones en base a un conjunto de datos pequeño y poco fiable.

Una solución a este problema es usar las matemáticas, en concreto modelos matemáticos que compiten entre sí para ajustarse a los datos disponibles y que después pueden combinarse para producir modelos aún más precisos. Puede que te suene al funcionamiento de la evolución de los seres vivos y es que hablamos de programación genética.

Un equipo de investigadores encabezado por Kalyan Veeramachaneni, del MIT (EE.UU.), ha abordado el reto de analizar los resultados de un panel de la empresa suiza Givaudan. Los 69 sujetos evaluaron 36 combinaciones diferentes de 7 sabores básicos a los que asignaban una puntuación en función de su atractivo olfativo. Los resultados aparecen publicados en Genetic Programming and Evolvable Machines.

Los investigadores generaron al azar para cada sujeto un conjunto de ecuaciones matemáticas que predecía las puntuaciones en función de 7 variables, los sabores. Cada conjunto se evaluó en función de 2 criterios: precisión y simplicidad. Un conjunto que, por ejemplo, predice las preferencias de un sujeto con bastante precisión usando una sola variable (la concentración de mantequilla, por caso) sería mucho más útil que otro que fuese ligeramente más preciso pero que requiriese una manipulación matemática compleja por incluir las 7 variables.

El proceso es iterativo: una vez que todos los conjuntos de ecuaciones han sido evaluados, los peores son eliminados; y a los supervivientes se les combina al azar para crear una nueva generación de ecuaciones, que vuelve a ser evaluada. Todo el proceso se repite unas 30 veces, hasta que converge en un conjunto de ecuaciones que se ajustan bien a las preferencias de un solo sujeto.

Una vez que las preferencias de cada persona tienen una expresión matemática fiable, es sencillo encontrar pautas. De esta manera los sujetos pueden clasificarse en grupos en función de gustos que tienen una expresión en lógica matemática pero que son difícilmente detectables de otra manera dentro del enjambre de datos. Por ejemplo, hay un grupo de sujetos que muestran una gran predilección por la canela o la nuez moscada, pero no por ambos sabores combinados. Tendría sentido, pues, que la empresa pusiese en el mercado dos productos, uno para los amantes de la canela y otro para los de la nuez moscada, pero cometería un grave error si comercializase uno sabor a canela con toques de nuez moscada como sugeriría un análisis tradicional. Este resultado puede parecer pobre, pero si tenemos en cuenta que para cada una de las 36 combinaciones alguien le dio la nota máxima y otro la mínima, el resultado es espectacular.

Como los investigadores no tenían la posibilidad de comprobar con los miembros del panel la validez de sus modelos en nuevos sabores, tuvieron que idear una forma de hacerlo. Con lo que habían aprendido diseñaron un conjunto de ecuaciones que representaba el conjunto de preferencias “reales” de varios sujetos ficticios. Introduciendo entonces las condiciones de contorno que implican los diseños de las pruebas de los paneles de consumidores, demostraron que sus algoritmos podían predecir los resultados.

Paradójicamente, lo más interesante para las empresas puede que sea el método de validación de los resultados más que los propios algoritmos: los diseños de las pruebas serían manifiestamente mejorables, por una parte y, por otra, una vez “modelado” un sujeto lo puedes incorporar a una base de datos que, debidamente mantenida y actualizada, te permitiría extrapolar resultados con mucha mayor fiabilidad.

Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de la Tecnología que acoge Scientia y en la Edición 2.X del Carnaval de Matemáticas que organiza Resistencia Numantina.

Referencia:

Veeramachaneni, K., Vladislavleva, E., & O’Reilly, U. (2012). Knowledge mining sensory evaluation data: genetic programming, statistical techniques, and swarm optimization Genetic Programming and Evolvable Machines DOI: 10.1007/s10710-011-9153-2

martes, 24 de enero de 2012

Una vida intelectualmente activa y Alzheimer



Un equipo de investigadores encabezado por Susan Landau, de la Universidad de California en Berkeley (EE.UU.), ha encontrado que personas sin síntomas de la enfermedad de Alzheimer y que a lo largo de su vida han realizado habitualmente actividades estimulantes desde el punto de vista cognitivo tienen menos depósitos de beta amiloide, el signo patológico de la enfermedad. Los resultados se publican en Archives of Neurology.

Antes de entrar en detalle, me permito sugerir al lector interesado esta introducción al estado de la cuestión para poder poner en contexto lo que sigue: La incomoda verdad sobre la enfermedad de Alzheimer.

Las placas de beta amiloide son el signo distintivo de la enfermedad de Alzheimer. Ello no significa que sean la causa, pero sea cual sea ésta, existe una correlación bien establecida entre la presencia de placas de de beta amiloide y Alzheimer. La aparición de estas placas puede estar influenciada también por los genes y el simple envejecimiento; démonos cuenta de que un tercio de las personas de más de 60 años tienen depósitos de amiloide en sus encéfalos. En cualquier caso, parece razonable suponer que cualquier cosa que retrase la aparición de las placas (no que las destruya a posteriori, véase la introducción) también podría retrasar la aparición del Alzheimer.

Investigaciones anteriores han venido sugiriendo que dedicarse a actividades estimulantes mentalmente como leer, escribir, los juegos de tablero o el baile de salón, podrían ser beneficiosas a la hora de retrasar o, incluso, prevenir, la aparición del Alzheimer. Sin embargo, la beta amiloide comienza a acumularse muchos años antes de la aparición de los síntomas. Por ello, a día de hoy, cuando empiezan a aparecer síntomas es poco lo que se pueda hacer para parar la progresión de la enfermedad (véase la introducción). Así pues, la prevención debe hacerse mucho antes y con esta idea en mente es con la que Landau et al. han diseñado su experimento.

Los investigadores pidieron a 65 adultos cognitivamente sanos de más de 60 años (edad media 76,1) que evaluasen la frecuencia con la que habían participado en actividades estimulantes mentalmente como ir a la biblioteca, leer libros o periódicos, escribir cartas o correos electrónicos. Las preguntas se centraban en varios aspectos de sus vidas desde los 6 años en adelante.

Estos voluntarios participaron durante más de 5 años en evaluaciones neuropsicológicas para comprobar la memoria y otras funciones cognitivas, siendo sometidos a escáneres PET (tomografía por emisión de positrones, por sus siglas en inglés) regularmente, usando como marcador el Compuesto B de Pittsburgh (con carbono-11 radiactivo), un análogo fluorescente de la tioflavina T que permite visualizar la presencia de beta amiloide. Como controles se usaron los resultados obtenidos con 10 pacientes diagnosticados con enfermedad de Alzheimer y 11 veinteañeros sanos.
Los investigadores encontraron una correlación estadísticamente significativa entre niveles mayores de actividad cognitiva a lo largo de toda la vida y menores niveles de beta amiloide, tal y como se presenta en los escáneres (este es un matiz no menor). Cuando analizaron el impacto de otros factores tales como el estado de la memoria, la actividad física, la capacidad nemotécnica autoevaluada, el nivel de educación y el sexo, encontraron que la correlación entre una vida cognitivamente activa y las placas de beta amiloide era independiente de todo lo anterior.

Es muy llamativo que no se encontrase una correlación fuerte entre la cantidad de placas de beta amiloide y la actividad cognitiva en ese momento. Esto es, parece que tiene mucho más efecto haber sido cognitivamente activo durante toda una vida que empezar a serlo en la vejez. Esto no implica que se nieguen los posibles efectos beneficiosos de ser cognitivamente activo en la vejez.

Este descubrimiento hace que se mire de distinta forma a lo que significa una vida cognitivamente activa para el cerebro. Más que simplemente aportar una resistencia frente al Alzheimer, las actividades que estimulan el cerebro podrían estar afectando a un proceso patológico primario de la enfermedad. Lo que sugiere que las terapias cognitivas deberían aplicarse mucho antes de que los síntomas aparezcan.

Si llegados a este punto al lector le queda la sensación de que andamos a ciegas con el Alzheimer, no se preocupe, es la sensación correcta.

Referencia:

Landau, S., Marks, S., Mormino, E., Rabinovici, G., Oh, H., O'Neil, J., Wilson, R., & Jagust, W. (2012). Association of Lifetime Cognitive Engagement and Low  -Amyloid Deposition Archives of Neurology DOI: 10.1001/archneurol.2011.2748

jueves, 19 de enero de 2012

Química orgánica ultrafría en el medio interestelar.

NASA/JPL-Caltech/T. Pyle (SSC)


Un equipo de investigadores encabezado por Dorian Parker, de la Universidad de Hawái (EE.UU.), ha descubierto una nueva ruta química a muy baja temperatura para la síntesis de naftaleno. Estos resultados podrían explicar la formación de hidrocarburos aromáticos policíclicos (HAP) en las regiones ultrafrías del espacio interestelar. El descubrimiento también puede ayudar a reducir la emisión de HAP tóxicos en los motores de combustión interna. El estudio se publica en los Proceedings of the National Academy of Sciences.

Cuando en la Tierra se habla de HAP suele ser para referirse a los procesos de combustión incompleta y a cómo se forman rápidamente a temperaturas elevadas en los motores de combustión interna o en el humo del tabaco. Una vez liberados en el aire los HAP pueden llegar a los pulmones donde su potencial carcinogénico los convierten en un riesgo mayor para la salud. Si llegan al agua la contaminan seriamente, bioacumulándose en el tejido graso de los seres vivos (algunos de los cuales nos comemos después). Los HAP están relacionados pues con la contaminación del suelo, los envenenamientos alimentarios, las lesiones en el hígado y el crecimiento de tumores.

Paradójicamente lo que en la Tierra puede clasificarse como altamente tóxico, en astrobiología se considera uno de los principales participantes en la evolución química en el medio interestelar. Así, por ejemplo, se encontraron HAP que portaban grupos funcionales carboxilo e hidroxilo en los extractos orgánicos del meteorito Murchison que formaban estructuras limitativas parecidas a membranas: los primeros indicios de una estructura protocelular, un requisito para el origen de la vida.

Naftaleno
Existe, además, otra paradoja: si en la Tierra los HAP se forman a muy alta temperatura, ¿cómo pueden existir en las cantidades en las que lo hacen en el medio interestelar con temperaturas sólo unos grados por encima del cero absoluto? El hecho cierto es que el proceso de formación de los HAP no se conoce suficientemente bien, ni siquiera el de su componente más sencillo, el naftaleno (C10H8).

Cuando se habla de la formación los mecanismos de reacción que se suelen mencionar implican secuencias aHaA, es decir, reacciones de abstracción (eliminación bimolecular) de hidrógeno combinadas con adición de acetileno. Una análisis termodinámico elemental muestra que las secuencias aHaA tienen una energía de activación muy altas, es decir, para que se inicien son necesarias temperaturas de varios miles de grados, como las que se encuentran en los procesos de combustión o en los flujos de las estrellas ricas de carbono y en las nebulosas planetarias.

Sin embargo, este proceso de formación de HAP no explica la presencia de HAP medida en el medio interestelar. En éste los HAP son destruidos rápidamente por fotolisis y por los rayos cósmicos. Las tasas de destrucción son mucho más altas que las de inyección de nuevo producto en el medio interestelar por las estrellas de la Rama Asintótica Gigante (RAG) y las nebulosas planetarias ricas en carbono descendientes de estrellas RAG. Por tanto debe existir un proceso de formación de HAP desconocido que explique la rápida y ubicua proliferación de HAP en el medio interestelar a temperaturas de 10K, temperaturas a las que las secuencias aHaA no pueden iniciarse.

Parker et al. demuestran que es posible la formación de naftaleno como consecuencia de una simple colisión entre un radical fenilo y vinilacetileno en fase gaseosa y la formación de un complejo intermedio por fuerzas de van der Waals, sin necesidad de una energía de activación. Los datos experimentales fueron corroborados por un análisis teórico de la reacción y simulaciones por ordenador. Este mecanismo podría explicar, pues, la formación de naftaleno a 10K

Si bien en el futuro habrá que encontrar mecanismos para la formación de HAP más complejos, como el fenantreno y el antraceno, o que contengan nitrógeno, como el indol o la quinolina, este trabajo demuestra por primera vez que la química a muy baja temperatura juega un papel crítico en la formación de compuestos orgánicos complejos en el medio interestelar.

Esta entrada es una participación de Experientia docet en la XI edición del Carnaval de Química que organiza La aventura de la ciencia

Referencia:

Parker, D., Zhang, F., Kim, Y., Kaiser, R., Landera, A., Kislov, V., Mebel, A., & Tielens, A. (2011). Low temperature formation of naphthalene and its role in the synthesis of PAHs (Polycyclic Aromatic Hydrocarbons) in the interstellar medium Proceedings of the National Academy of Sciences, 109 (1), 53-58 DOI: 10.1073/pnas.1113827108

lunes, 16 de enero de 2012

La regulación del primer metabolismo prebiótico.



El papel central que en la bioquímica tiene el ciclo de Krebs sugiere que fue uno de los primeros componentes del metabolismo celular y que probablemente tuviese un origen abiogénico. En una Tierra primitiva con poco oxígeno es más que posible que surgiese en el otro sentido, produciendo compuestos orgánicos a partir de dióxido de carbono y agua. Un equipo de investigadores encabezado por Wei Wang, del Instituto de Tecnología de Harbin (China), ha encontrado indicios de que el anticiclo de Krebs (ciclo reductivo de los ácidos tricarboxílicos) puede estar fotocatalizado en la superficie de los minerales de sulfuro comunes. Los resultados se publican en Chemical Communications.

El ciclo del ácido cítrico o de Krebs es una serie de reacciones químicas por la que los organismos vivos aerobios (que usan oxígeno) generan energía por la oxidación del acetato obtenido de los hidratos de carbono, las grasas y las proteínas dando como productos de desecho dióxido de carbono y agua. Aparte de la energía, el ciclo produce precursores para la biosíntesis de compuestos de importancia biológica, como ciertos aminoácidos y el agente reductor NADH que interviene en numerosas reacciones bioquímicas.

Existen bacterias en las que el ciclo de Krebs funciona en sentido contrario, lo que se llama el ciclo reductivo de los ácidos tricarboxílicos (CRAT), formando compuestos orgánicos a partir de dióxido de carbono y agua. Estas bacterias podrían estar conservando el metabolismo primordial.

La conclusión a la que llegan Wang et al. es que las primeras reacciones que formaron moléculas biológicas y sus rutas metabólicas pudieron haber tenido lugar en la superficie de minerales de azufre en las fumarolas hidrotermales marinas. Esta sería la explicación de por qué las enzimas que contienen agrupaciones metal-sulfuro juegan un papel tan importante en el metabolismo de la mayoría de los organismos.

Los investigadores emplearon esfalerita (más conocida quizás como blenda, pero aquí favorecemos el griego clásico frente al alemán), un mineral de sulfuro de cinc, con presencia habitual de sulfuro de hierro, (Zn, Fe)S. La esfalerita podía catalizar, en presencia de radiación ultravioleta (recordemos que en la Tierra primitiva no había oxígeno y tampoco ozono, por lo que la intensidad de la radiación UV que llegaba a superficie era mucho mayor que ahora), la aminación reductora reversible de los alfa cetoácidos, lo que podría equilibrar la entrada y salida de metabolitos de la CRAT, esto es, la homeostasis redox.

Los resultados del equipo de Wang muestran que la esfalerita puede catalizar en presencia de radiación UV tanto la aminación reductora del alfa-cetoglutarato (un producto intermedio del CRAT; α-ketoglutarate en la imagen) para obtener el aminoácido glutamato como la reacción inversa. El sistema también puede catalizar otros procesos de aminación reversibles necesarios para la homeostasis: la conversión de los aminoácidos alanina, glicina y aspartato en metabolitos del CRAT y viceversa. Es decir, no sólo se propone un mecanismo viable para la formación de aminoácidos, también una forma primitiva de regulación de un primer metabolismo.

Los resultados son muy interesantes en sí mismos, pero no son concluyentes, principalmente por los bajos rendimientos de las reacciones. Es una línea de investigación que hay que seguir y que puede dar frutos muy interesantes. Los investigadores apuntan a que emplearán trazas de metales de transición para poder usar radiaciones menos energéticas, como la luz visible. Estaremos atentos.

Esta entrada es una participación de Experientia docet en la IX Edición del Carnaval de Biología que organiza La ciencia de la vida y en la XI Edición del Carnaval de Química que acoge La aventura de la ciencia

Referencia:

Wang, W., Li, Q., Yang, B., Liu, X., Yang, Y., & Su, W. (2012). Photocatalytic reversible amination of α-keto acids on a ZnS surface: implications for the prebiotic metabolism Chemical Communications DOI: 10.1039/C2CC15665B

lunes, 9 de enero de 2012

Conferencia en la Universidad de Murcia: ¿Hay o no hay metano en Marte?


Dentro de las jornadas "Los blogs como medio emergente de divulgación de la ciencia" el próximo sábado 14 de enero daremos una charla sobre la problemática de la búsqueda de vida en en otros planetas, partiendo de algo tan aparentemente sencillo como determinar si hay o no metano en Marte.

Las jornadas han sido promovidas por Daniel Torregrosa (Ese punto azul pálido) y José Manuel López Nicolás (Scientia), a los que desde aquí agradezco su amable invitación.

El programa completo de las jornadas aparece a continuación; la asistencia es gratuita hasta completar el aforo del Salón de Grados de la Facultad de Derecho (Campus de la Merced). Espero veros allí.

PROGRAMA
 “LOS BLOGS COMO MEDIO EMERGENTE DE DIVULGACIÓN DE LA CIENCIA”
 VIERNES 13 DE ENERO
 16:00 h. Presentación de las Jornadas
 BLOQUE I: LA DIVULGACIÓN DESDE EL ÁMBITO ACADÉMICO
16:15-16:45 h. “¿Qué pueden aportar los blogs a las actividades académicas de investigación? Mi experiencia personal.” Pablo Artal.
16:45-17:15 h. “Los Blogs en el área de humanidades.” Pascual Pérez Paredes.
17:15-17:45 h. Pausa
17:45-18:15 h. “Blogs y WebQuest como herramientas académicas de la enseñanza de las ciencias en Secundaria.” José Frutos.
18:15-18:45 h. “¿Cómo hacer un blog?” Antonio Ruiz.
18:45-19:30 h. Mesa redonda: “El rigor científico de los blogs.”
Intervienen: Francisco García CarmonaCarlos García Izquierdo Juan Mª Vázquez. Modera: Pablo Artal.
 SÁBADO 14 DE ENERO
 BLOQUE II: PERIODISMO CIENTÍFICO
Presentación: José Antonio Lozano Teruel.
9:30-9:50 h. “Experiencias de periodismo científico desde la Universidad de Murcia: Prinum, Ciencia y Media, Campus Mare Nostrum.”
Delfina Roca, Rebeca Escribano Pablo Muñiz.
9:50-10:10 h. “Divulgación y difusión científica en las redes sociales.” Aurora Ferrer.
10:10-10:30 h. “Bares y Ciencia.” Javier Peláez.
10:30-11:00 h. Mesa redonda: “Comunicación científica.” Intervienen: ponentes y público. Modera: José A. Lozano Teruel.
11:00-11:30 h. Pausa
BLOQUE III: DIVULGACIÓN CIENTÍFICA AMATEUR
Presentación: Javier Peláez.
11:30-11:50 h. “La mala Ciencia en el etiquetado y la teoría de los 6 grados de separación” José Manuel López Nicolás.
11:50-12:10 h. “Virus: de la realidad a la ficción.” Enrique Royuela.
12:10-12:30 h. “¿Hay o no hay metano en Marte?” César Tomé.
12:30-12:50 h. “Los transgénicos, o como bloguear sobre un tema impopular.”José Miguel Mulet.
12:50-13:20 h. “¿Miedo a la Física? ¿Quién, yo?” Sergio Palacios.
13:20-14:00 h. Mesa redonda de los ponentes y otros blogueros invitados. Preguntas del público y Twitter a todos. Modera: Daniel Torregrosa.
 14:00 h. Clausura de las Jornadas
COORDINADORES DE LAS JORNADAS
Antonio Guirao Piñera. Profesor Titular de Física. Coordinador de la Unidad de Cultura Científica, UMU.
Daniel Torregrosa López. Licenciado en Química por la Universidad de Murcia, especialidad en Bioquímica. Blog: “Ese Punto Azul Pálido”.
José Manuel López Nicolás. Profesor Titular de Bioquímica y Biología Molecular, UMU. Blog: “Scientia”.
Miguel Motaz Guzmán. Profesor Titular de Toxicología. Coordinador de Promoción de la Investigación, UMU. Blog: “Expedición en la Antártida”.
Pablo Artal Soriano. Catedrático de Óptica, UMU. Presidente de la Academia de Ciencias de la Región de Murcia. Blog: “Optics Confidential” “Visión de Lejos”.
PARTICIPANTES EN LAS JORNADAS
Antonio Ruiz Martínez. Profesor Contratado Doctor de Ingeniería de la Información y las Comunicaciones,Universidad de Murcia (UMU).
Aurora Ferrer. Periodista y coordinadora de redes sociales de la revista “Quo”. Blog:“Lenguas Calvas”.
Carlos García Izquierdo. Profesor de Investigación del Centro de Edafología y Biología Aplicada del Segura. Secretario de la Academia de Ciencias de la Región de Murcia (ACRM).
César Tomé. Licenciado en Ciencias Químicas y Máster en Neurociencia y Biología del comportamiento. Directivo de empresa. Blog: “Experientia Docet.
Daniel Torregrosa López. Licenciado en Química por la Universidad de Murcia, especialidad en Bioquímica. Blog: “Ese Punto Azul Pálido”.
Delfina Roca Marín. Licenciada en Periodismo y Publicidad. Máster en Comunicación. Técnico especialista en comunicación y actividades de difusión del Vic. de Investigación y Campus de Excelencia, UMU.
Enrique Royuela. Doctor en Biología por la Universidad de Alicante. Responsable de la Red Social “Feelsynapsis” y de la revista online de divulgación científica “Journal of Feelsynapsis”.
Francisco García Carmona. Catedrático de Bioquímica y Biologia Molecular, UMU. Académico de la ACRM.
Javier Peláez. Co-Fundador de “Amazings”. Editor de la sección de Ciencia de Yahoo España. Blog: “La Aldea Irreductible”.
José Frutos Lorca. Licenciado en Ciencias Físicas. Profesor de Secundaria. Autor de Web Quest de Física y Química.
José Manuel López Nicolás. Profesor Titular de Bioquímica y Biología Molecular, UMU. Blog: “Scientia”.
José Antonio Lozano Teruel. Catedrático Emérito de Bioquímica y Biología Molecular, UMU. Autor de la sección “Ciencia y Salud” del periódico La Verdad. Divulgador científico.
José Miguel Mulet. Profesor Titular de Biotecnología, Universidad Politécnica de Valencia. Blog: “Los productos naturales ¡vaya timo!”.
Juan María Vázquez Rojas. Catedrático de Medicina y Cirugía Animal. Vicerrector de Investigación y Campus de Excelencia, UMU. Académico de la ACRM.
Pablo Artal Soriano. Catedrático de Óptica, UMU. Presidente de la Academia de Ciencias de la Región de Murcia. Blog: “Optics Confidential” “Visión de Lejos”.
Pablo Muñiz. Periodista. DirCom del Campus Mare Nostrum.
Pascual Pérez Paredes. Profesor Titular de Filología Inglesa, UMU. Coordinador de la UMU para el Campus Mare Nostrum. Blogs personales académico y de investigación.
Rebeca Escribano. Periodista. Redactora de los programas Ciencia y Media yMicrociencia de Onda Regional.
Sergio Palacios. Profesor Titular de Física, Universidad de Oviedo. Blog: “Física en la Ciencia Ficción”.