domingo, 29 de junio de 2008

Influencias genéticas y ambientales en la homosexualidad.

El comportamiento homosexual tiene su origen en la genética y en factores medioambientales aleatorios, según los resultados del mayor estudio realizado hasta la fecha en gemelos.

Según aparece publicado en la revista Archives of Sexual Behavior, investigadores del Queen Mary’s School of Biological and Chemical Sciences de Londres y del Karolinska Institutet de Estocolmo han encontrado que tanto la genética como los factores ambientales (que son específicos para el individuo, y pueden incluir procesos biológicos como la diferente exposición a hormonas en la matriz), son importantes determinantes del comportamiento homosexual.

Este hallazgo tiene dos implicaciones inmediatas: la primera que no se puede hablar de un “gen gay” o de una sola variable ambiental que puedan permitir determinar la homosexualidad, ya que los factores que la producen son complejos; la segunda es que el comportamiento heterosexual también está influenciado por una mezcla de genética y ambiente.

El equipo liderado por el Dr. Niklas Långström del Karolinska Institutet ha llevado a cabo el primer estudio verdaderamente basado en la población de todos los gemelos adultos (entre 20 y 47 años) de Suecia. Los estudios de gemelos idénticos y mellizos (hermanos gestados en el mismo embarazo) se usan para desentrañar los factores genéticos y ambientales de un rasgo en concreto. Si los hermanos han sido criados juntos encontramos que, mientras que los gemelos comparten todos sus genes y su medio, los mellizos comparten sólo la mitad de su carga genética y todo su medio. Por lo tanto, una similitud mayor en un rasgo entre gemelos que entre mellizos indica que los factores genéticos son en parte responsables del mismo.

Este estudio analizó 3.826 parejas de gemelos del mismo género (7.652 individuos), a los que se les preguntó cuántos compañeros del mismo y distinto sexo habían tenido en total. Los resultados mostraron que el 35% de las diferencias entre varones en comportamiento homosexual tienen su base en la genética y el 64% en factores ambientales específicos del individuo, no sociales, familiares o paternales (que son compartidos por los gemelos).

En el caso de las mujeres, la genética explicó aproximadamente el 18% del comportamiento homosexual, el 64% del mismo tenía su base en factores ambientales específicos y el 16% en factores sociales o familiares.

El estudio muestra que las influencias genéticas son importantes pero modestas, y que los factores ambientales específicos, que pueden incluir factores que operan durante el desarrollo fetal, son los que dominan. Es importante destacar que la herencia tiene aproximadamente la misma influencia que los factores ambientales compartidos en las mujeres, mientras que éstos no tienen influencia en el comportamiento sexual de los varones.

Original: Genetic and Environmental Effects on Same-sex Sexual Behavior: A Population Study of Twins in Sweden

sábado, 28 de junio de 2008

AKR: un nevo método para buscar mundos.


La primera cosa que una civilización extraterrestre es probable que oiga de la Tierra son gorjeos y silbidos, un poco como el R2-D2 de “La guerra de las galaxias”. En realidad, son los sonidos que acompañan a la aurora boreal. La misión de la ESA Cluster está permitiendo a los científicos comprender esta emisión y, en el futuro, buscar mundos.


Esta emisión de radio se denomina Radiación Kilométrica de la Aurora (AKR, por sus siglas en inglés). Se genera por encima de la atmósfera, por el mismo conjunto de partículas solares que causa las luces de la aurora boreal que se ven desde la superficie de la Tierra. Durante décadas los científicos han asumido que estas ondas de radio viajaban por el espacio en un cono que se hacía cada vez mayor, bastante parecido a la luz emitida por una linterna. Ahora se ha comprobado que esto no es así.


Analizando 12.000 brotes de AKR, un grupo de astrónomos a determinado que la AKR se propaga al espacio en un plano estrecho. Es como poner un cartón delante de la linterna con una rajita por la que sale la luz.

Para cada uno de los brotes que se analizaron, se pudo determinar su origen en regiones del campo magnético de la Tierra de unas decenas de kilómetros de tamaño. Estas regiones se localizan unos cuantos miles de kilómetros por encima de donde se forman las luces de la aurora boreal.

Este tipo de resultado se ha podido obtener gracias a los cuatro satélites de la misión Cluster. La misión Cluster consiste en cuatro satélites caso idénticos volando en formación [en la imagen] que son capaces de determinar el momento exacto en que la AKR pasa por cada uno de ellos. Usando esta información, el equipo de investigadores trianguló los puntos de origen, de una forma similar a como funciona la navegación GPS.

La AKR fue descubierta por los satélites a principios de los años 70 del pasado siglo. La ionosfera, las capas altas de la atmósfera, impide que llegue a la superficie del planeta. Si llegase impediría todas las transmisiones por radio. Es 10.000 veces más intensa que la señal del radar militar más potente.

Siempre que existe aurora, existe la AKR. Esto afecta también a las auroras en otros planetas. Se han visto auroras y detectado AKRs en Júpiter y Saturno, cuyo estudio permite conocer mejor el medio magnético de ambos. Pero también, y esto es lo más interesante, la localización de AKRs se constituye en un nuevo método de búsqueda de planetas que añadir a las transiciones delante de estrellas y a los efectos gravitacionales. Una vez que los planetas se identifiquen, se puede monitorizar la AKR para ver cómo aparece y desaparece, lo que permitirá calcular el periodo de rotación del planeta.

Aunque buscar AKRs de planetas extrasolares requerirá radiotelescopios mucho mayores de los existentes actualmente, estos instrumentos ya se están diseñando.

jueves, 26 de junio de 2008

Astrocitos para todo.


En muchas noticias recientes sobre neurociencia aparece una técnica de observación del cerebro denominada resonancia magnética funcional (fMRI). Para muestra basta ojear los artículos con la etiqueta neurociencia de este blog. Aunque parezca increíble, no se conocía bien el fundamento fisiológico en el que se basa la técnica, por el que la actividad neuronal aumenta el flujo de sangre al cerebro. La fMRI usa precisamente el flujo de sangre en el cerebro para localizar las áreas del mismo donde hay actividad neuronal.


El Dr. Gabor Petzol de la Universidad de Harvard y su equipo acaban de publicar el mecanismo en el número de hoy de Neuron (de hecho, es la portada).


Aunque sólo representa el 5% de la masa corporal el cerebro humano consume el 20% del oxígeno transportado en la sangre. A diferencia del músculo y de otros tipos de tejido, el cerebro no tiene almacenes de energía internos, por lo que todas sus necesidades metabólicas deben satisfacerse mediante el continuo flujo de sangre.


El equipo de investigación observó en ratones que la asociación neurovascular (entre neuronas y vasos sanguíneos) se produce a través de unas células llamadas astrocitos (número 5 en la imagen; aparece conectado a una neurona y a un capilar sanguíneo), un subtipo de las células gliales. Modificando los niveles de calcio, los astrocitos pueden dilatar o contraer los vasos sanguíneos, dependiendo de si las células están recibiendo o no neurotransmisores.


Cuando una región del cerebro se activa, los neurotransmisores comienzan a ser emitidos por la red neuronal de ese área. El más común de estos neurotransmisores en el cerebro de los mamíferos, el glutamato, se libera en gran cantidad en las sinapsis y se une a los astrocitos así como a los receptores postsinápticos. Los investigadores encontraron que, cuando el glutamato se une a los astrocitos, se elevan los niveles de calcio intracelular en éstos, dilatando los capilares sanguíneos e incrementando, por tanto, el flujo de sangre a esa región del sistema nervioso.

.

Esta es una más de las importantes tareas que llevan a cabo los astrocitos. Aparte de la que comentamos también sostienen, alimentan, limpian, protegen y reparan las neuronas.


El descubrimiento se realizó estudiando el bulbo olfatorio de ratones, por lo que ahora la investigación continúa para averiguar si el resto del cerebro funciona con el mismo mecanismo.


Original: http://www.neuron.org/content/article/abstract?uid=PIIS0896627308004030

miércoles, 25 de junio de 2008

¡Ojito con la fructosa!


Sabíamos que existen grasas buenas (insaturadas en general como el aceite de oliva) y malas (saturadas, la grasa de las carnes). Ahora crece la sospecha de que tampoco todos los azúcares son iguales. Los adultos con sobrepeso que consumen grandes cantidades de fructosa experimentan cambios alarmantes en la grasa corporal y en la sensibilidad a la insulina que no tienen lugar si lo que se consume es glucosa.

La fructosa se encuentra en la fruta fresca, el zumo de frutas y en las confituras. Pero la mayor parte se cuela en nuestras dietas como el sirope o jarabe de maíz, también conocido como HFCS por sus siglas en inglés (high fructose corn syrup), presente en los refrescos, este jarabe después se descompone en un 55% de fructosa y un 45% de glucosa en el cuerpo, o bien se introduce vía la sacarosa (el azúcar de toda la vida) que también se descompone en fructosa y glucosa.

El miedo a que la fructosa y el HFCS estén alimentando la epidemia de obesidad y disparando la resistencia a la insulina y la diabetes ha estado circulando durante años, pero había habido pocas investigaciones directas en humanos.

Peter Havel de la Universidad de California en Davis convenció a 33 adultos obesos o con sobrepeso de que se sometieran a una dieta de un 30% de grasa, 55% carbohidratos complejos y 15% proteínas durante dos semanas. Durante diez semanas más, cambiaron a una dieta en la que el 25% de la energía venía en forma bien de fructosa, bien de glucosa.

En aquellos que recibieron fructosa hubo un incremento de la cantidad de grasa intra-abdominal, que envuelve los órganos internos, causa la barriga cervecera y se la ha relacionado con un incremento del riesgo de diabetes y de enfermedades cardiovasculares. Esto no ocurrió con el grupo que consumió glucosa, aunque ambos grupos ganaron en promedio 1,5 Kg de peso.

Por si fuera poco, aquellos que consumieron fructosa también habían elevado sus niveles de triglicéridos grasos, que se depositan como grasa intra-abdominal, y colesterol. La sensibilidad a la insulina también bajó un 20%. Aparentemente la glucosa no tenía efecto sobre estas variables. Los resultados de Havel se presentaron en una reunión de la Endocrine Society en San Francisco (EE.UU.) la pasada semana.

Debido a que el ensayo de Havel se centró en la fructosa pura, no en el HFCS o la sacarosa, aún no está claro si estas sustancias son las responsables de la obesidad y la diabetes. Pero, en cualquier caso, parece que es mejor ir limitando el consumo de azúcar.

Fuente: www.newscientist.com

martes, 24 de junio de 2008

Minería interestelar.



La forma en que se buscan moléculas precursoras de la vida en el espacio está empezando a cambiar. Las técnicas de data-mining son claves para ello.


Las moléculas emiten ondas de radio en frecuencias específicas según la forma en que vibran y rotan. Cada molécula tiene un patrón específico de esas frecuencias, llamadas líneas espectrales, que constituye una “huella dactilar” que identifica la molécula. En ensayos de laboratorio se puede determinar la pauta de líneas espectrales que identifica una molécula específica.


La mayor parte de los descubrimientos de la astroquímica se han basado en identificar la huella de una molécula en el laboratorio y después buscar estas líneas espectrales con un radiotelescopio en una región del espacio. Hasta ahora se han descubierto más de 140 moléculas diferentes por este método en el espacio interestelar.


En un nuevo estudio que ahora comienza el proceso se va a invertir. Los astrónomos van a usar el gigantesco Robert C. Byrd Green Bank Telescope (GBT) (en la imagen) para estudiar Sagitario B2(N), una enorme nube de gas y polvo cerca del centro de nuestra galaxia a unos 25.000 años luz. En esta ocasión, sin embargo, se va a hacer primero una búsqueda metódica de todas las líneas espectrales pertenecientes a cualquier sustancia química presente en la nube, para después casarlas con pautas moleculares usando software de minería de datos (data-mining).


La enorme capacidad del GBT permitirá hacer un rastreo de las frecuencias entre 300 MHz a 50GHz, algo que no era posible antes del GBT. Se espera encontrar un número importante de moléculas complejas y prebióticas que se supone que están presentes en nubes como Sagitario. Si la experiencia tiene éxito, aparte de un tesoro de información para la astroquímica, se habrá comprobado la eficacia del software de data-mining, que el equipo anuncia que lo pondrá a disposición de la comunidad científica. Una pequeña gran revolución está en marcha.

Comunicado de prensa del National Radio Astronomy Observatory de los Estados Unidos: http://www.nrao.edu/pr/2008/molmine/

lunes, 23 de junio de 2008

El canibalismo de las galaxias Seyfert.


Casi todas las galaxias Seyfert son galaxias espirales y están entre los objetos más intensamente estudiados en astronomía, principalmente porque se piensa que son versiones cercanas y de baja luminosidad del mismo fenómeno que se observa en los quásares. Se piensa que un agujero negro supermasivo en el núcleo de la galaxia, que acumula gas de su entorno, es lo que da energía a todos estos objetos. Por supuesto no vemos el mismo agujero negro, sino la radiación que emite el gas caliente que forma el disco de acrecimiento alrededor del agujero negro.


Si bien hay agujeros negros en el centro de muchas galaxias, la nuestra incluida, sólo unos pocos presentan una actividad energética. Las galaxias Seyfert serían la versión más suave de esta actividad, mientras que los quásares y los blázares serían cientos de veces más potentes.

La teoría dominante dice que las galaxias Seyfert serían galaxias normales perturbadas por el encuentro cercano con una galaxia vecina, removiendo de esta forma su gas y poniendo más cantidad de él al alcance gravitatorio del agujero negro. Sin embargo, cuando los astrónomos observan las Seyfert con telescopios de luz visible (imagen izquierda), sólo unas pocas muestran pruebas de un encuentro como el descrito. En un trabajo que publican en Astrophysical Journal, un grupo de científicos de la Universidad de Taipei (Taiwan) informan de que, cuando se estudian las Seyfert en la frecuencia del hidrógeno atómico (imagen de la derecha), se confirma que la mayoría de las Seyfert están perturbadas por encuentros en curso con galaxias vecinas.


Los astrónomos seleccionaron 23 galaxias Seyfert relativamente cercanas que habían sido previamente observadas con telescopios de luz visible. Las estudiaron entonces cuidadosamente con las veintisiete antenas parabólicas del radio telescopio Very Large Array (VLA) de Nuevo México, buscando específicamente señales emitidas por los átomos de hidrógeno. Las imágenes del VLA mostraron que la gran mayoría de las Seyfert estaban perturbadas por encuentros con galaxias vecinas. Por contra, muy pocas galaxias inactivas presentan estas perturbaciones.


Este se considera que ha sido el mejor y más extenso estudio de las emisiones de hidrógeno en las Seyfert y se ha revelado como una poderosa herramienta para revelar interaccione gravitacionales que, de otra manera, no serían visibles.



Original: DOI: 10.1086/587044 “Prevalence of Tidal Interactions among Local Seyfert Galaxies” Cheng-Yu Kuo, Jeremy Lim, Ya-Wen Tang, y Paul T. P. Ho
http://www.journals.uchicago.edu/doi/abs/10.1086/587044


domingo, 22 de junio de 2008

El gen "egoísta", existe.

Desde que el conocido biólogo británico Richard Dawkins introdujera el término “gen egoísta” en 1976, los científicos de todo el mundo han recibido la teoría como una extensión natural del trabajo de Charles Darwin.

Al estudiar genomas, la palabra “egoísta” no se refiere al adjetivo que describe el comportamiento humano sino a la tendencia ciega de los genes que desean continuar su existencia en la próxima generación, valga el antropomorfismo. Irónicamente, esta tendencia egoísta puede aparecer como cualquier cosa menos egoísta cuando el gen se transmite debido a motivos altruistas o incluso de auto sacrificio.

Por ejemplo, en una colonia de abejas melíferas, un complejo sistema de cría descrito como “superorganismo”, las abejas obreras hembras son estériles. La abeja reina adulta, seleccionada y alimentada por las obreras, es la que se aparea con los zánganos.

Debido a que el gen “egoísta” que controla la esterilidad de las obreras nunca había sido aislado, la comprensión de cómo el altruismo reproductivo puede evolucionar ha sido completamente teórica.

En 2006 se completó el Proyecto Genoma de la Abeja. En el número de Julio de Genetics, Peter Oxley de la Universidad de Sidney (Australia) y Graham Thompson de la Universidad de Western Ontario (Canadá), basándose en los resultados del proyecto, informan de que han conseguido aislar la región del genoma de las abejas obreras que alberga este gen egoísta. Esto, aunque parezca una obviedad, implica que el gen egoísta existe, dando así base experimental a buena parte de la sociobiología.

sábado, 21 de junio de 2008

La Tierra era habitable hace 4.300 millones de años.



Un nuevo análisis de muestras del mineral más antiguo que existe sobre la corteza terrestre, el circón (silicato de circonio), sugiere que un clima riguroso pudo haber erosionado e incluso posiblemente destruido la superficie de los primeros continentes de la Tierra.


El circón ofrece la posibilidad de echar un vistazo atrás en el tiempo hasta hace 4.400 millones de años, cuando el planeta sólo tenía 150 millones de años. Debido a que estos cristales son excepcionalmente resistentes a los cambios químicos, se han convertido en la referencia para determinar la edad de rocas antiguas.


El Dr. John Valley de la Universidad de Wisconsin en Madison ya demostró usando estos minerales que los continentes rocosos y el agua líquida se formaron en la Tierra mucho antes de lo que se suponía, hace alrededor de 4.200 millones de años.


En un artículo publicado en Earth and Planetary Science Letters por el propio Valley junto a Takayuki Ushikubo y Noriko Kita (también de la Universidad de Wisconsin-Madison) han adelantado la existencia de los continentes rocosos y el agua líquida 100 millones de años hasta los 4.300 millones pero, eso sí, sometidos a la inclemencias de un clima extremo (con lluvia ácida debida a los altísimos niveles de CO2). Esta circunstancia podría explicar porqué no existen muestras de roca de los primeros 500 millones de años después de que la Tierra se formase.


Las explicaciones anteriores para las rocas desaparecidas incluían el bombardeo de meteoritos y la posibilidad de que la Tierra fuese un mar al rojo vivo de magma en el que las rocas no podían formarse.


El análisis del equipo de Ushibuko sugiere unas circunstancias completamente diferentes. Los investigadores usaron un sofisticado instrumento llamado microsonda iónica para analizar el ratio de isótopos del elemento litio en muestras de circón provenientes de Jack Hills [Jack Hills zircon en la imagen], en el oeste de Australia. Comparando estos resultados con los obtenidos en muestras de la corteza continental y en rocas primitivas similares a las del manto de la Tierra, encontraron pruebas de que el planeta ya tenía inicios de continentes, temperaturas relativamente frías y agua líquida para la época en que se formaron los circones de Australia. Es decir, hace 4.300 millones de años la Tierra tenía condiciones habitables.
.

jueves, 19 de junio de 2008

Diez segundos antes de la consciencia.

La cuestión de si los humanos tenemos libre albedrío ha sido discutida durante años por filósofos y religiosos, y más recientemente por neurocientíficos. Haynes y su equipo han echado gasolina al fuego mostrando que la actividad en dos áreas corticales no motoras puede predecir el resultado de una decisión de movimiento hasta 10 segundos antes de que el individuo sea consciente de la decisión.

Empleando resonancia magnética funcional (fMRI por sus siglas en inglés), el equipo registró la actividad cerebral de los voluntarios a los que se les había solicitado que presionaran un botón bien con su mano derecha bien con su izquierda. A lo largo del experimento los voluntarios observaban una pantalla que mostraba una sucesión de letras, y tenían que recordar que letra había en pantalla en el momento en el que tomaban la decisión de qué botón presionar. Esto reveló que la mayor parte de las decisiones llegaron a ser conscientes 1 segundo antes de que tuviese lugar la respuesta motora.

Los investigadores analizaron entonces la actividad de diferentes áreas del cerebro durante el tiempo que precedía al accionamiento del botón, usando para ello decodificadores basados en pautas. Este tipo de análisis pueden detectar pautas “firma” de actividad que están asociadas con una decisión particular. Encontraron pautas de actividad en el área de Brodmann 10 y en el córtex parietal (córtex cingulado posterior); estas áreas se piensa que están relacionadas con la función ejecutiva y el autoprocesamiento. Estas pautas permitían predecir con gran precisión qué botón se presionaría. Lo más curioso es que las pautas aparecían nada menos que 7 segundos antes de que los voluntarios eligieran conscientemente su respuesta motora. La actividad que registra la fMRI es dependiente del nivel de oxígeno en sangre y de cómo circula ésta por las zonas activas del cerebro, por lo que los registros representan la actividad neuronal que tuvo lugar 3 segundos antes. Por consiguiente lo que se puede concluir es que las dos áreas cerebrales que codifican las decisiones se activan ¡10 segundos antes de que sean conscientes!

Aunque es difícil imaginar que nuestras decisiones puedan hacerse subconscientemente, estos hallazgos tienen importantes implicaciones. ¿Puede tener la gente responsabilidad por sus acciones si no son conscientes de sus decisiones hasta después de que se han tomado? Tú decides... ¿o lo hiciste hace 10 segundos?


Original: http://www.nature.com/neuro/journal/v11/n5/abs/nn.2112.html;jsessionid=23A5728F79F9A9744F437213813921D9

miércoles, 18 de junio de 2008

Cuando el tamaño no importa.


Los mayores agujeros negros puede que se alimenten exactamente igual que los pequeños, de acuerdo con con un estudio realizado usando los datos procedentes del Observatorio de rayos X Chandra y de telescopios en tierra.


El descubrimiento, realizado por el equipo que lidera la Dra. Sera Markoff del Instituto Astronómico de la Universidad de Amsterdam, viene a confirmar un trabajo anterior de Andrea Merloni del Instituto Max Planck para la Física Extraterrestre de Garching en el que se sugería que, de acuerdo con la Teoría General de la Relatividad de Einstein, las propiedades de los agujeros negros más grandes deberían ser similares a las de los más pequeños.


Se ha llegado a esta conclusión después de una larga campaña de observación de la galaxia espiral M81 (en la imagen), que se encuentra a unos 12 millones de años luz de la Tierra. En el centro de M81 hay un agujero negro que es algo así como 70 millones de veces más masivo que el Sol, y que genera energía y radiación conforme arrastra gas de la región central de la galaxia hacia el interior a gran velocidad.


Por contra, los así llamados agujeros negros de masa estelar, que tienen del orden de 10 veces más masa que nuestro Sol, tienen una fuente de alimentación diferente. Estos agujeros negros más pequeños adquieren material arrastrando gas proveniente de una estrella compañera en órbita.


Usando estas nuevas observaciones y un detallado modelo teórico, el equipo de investigación comparó las propiedades del agujero negro de M81 con las de los agujeros negros de masa estelar. Los resultados muestran que da igual que sean grandes o pequeños, los agujeros negros parece que se alimentan de forma similar y producen, por tanto una distribución similar de rayos X (azul en la imagen principal y en el recuadro, del Chandra), radiación infrarroja (rosa en la imagen, del Spitzer), ultravioleta (violeta en la imagen, del GALEX), visible (verde en la imagen, del Hubble).


Una de las implicaciones de la Teoría General de la Relatividad de Einstein es que los agujeros negros son objetos sencillos y que sólo su masa y velocidad de rotación determina su efecto sobre el espaciotiempo. El descubrimiento del equipo de Markoff indica que esta simplicidad se manifiesta a pesar de los complicados efectos del entorno.


Este trabajo debería ser útil para predecir las propiedades de los agujeros negros de masa intermedia, cuya existencia aún no se ha confirmado a pesar de haberse identificado algunos posibles candidatos.


El original aparecerá publicado en un próximo número de The Astrophysical Journal.

martes, 17 de junio de 2008

Expresar miedo te da ventaja.



El estudio de las expresiones faciales se ha realizado habitualmente desde el punto de vista de la comunicación pero pocas veces se han analizado sus implicaciones fisiológicas o evolutivas.

La idea de que las expresiones faciales nos dan una ventaja para sobrevivir fue propuesta por primera vez por Charles Darwin. En 1872, 13 años después de que publicase “El origen de las especies”, Darwin escribió un libro menos conocido, “la expresión de las emociones en el hombre y los animales”. En él, indicaba que algunas expresiones humanas se dan independientemente de la cultura e incluso en otros animales. Citaba el grito sofocado con los ojos como platos como ejemplo. Darwin sugería que estas caras emocionales podrían tener una función biológica, como tener una buena visión de un enemigo.


La hipótesis de Darwin no se había intentado comprobar hasta hace poco, cuando el equipo de Adam Anderson y Joshua Susskind de la Universidad de Toronto decidió aplicar la tecnología actual a la idea centenaria. Los investigadores generaron por ordenador una clásica cara de miedo (ver imagen): una con las cejas levantadas, ojos como platos y aletas de la nariz ensanchadas. También imitaron una cara de asco: la nariz arrugada, el labio levantado y ojos estrechados tan familiares para el que haya olido huevos podridos. Asimismo crearon una cara de felicidad y otra de tristeza. El equipo les pidió a los voluntarios que imitasen estas caras mientras se tomaban mediciones de respiración y visión.


El equipo encontró que una expresión miedosa mejora la visión periférica, acelera el movimiento ocular y aumenta el flujo de aire, permitiendo potencialmente a una persona percibir el peligro y responder a él más rápidamente. La cara de disgusto tiene el efecto contrario, limitando la visión y disminuyendo el flujo de aire, ostensiblemente para mantener fuera las substancias que pueden ser perjudiciales para los ojos o los pulmones.


Este estudio es de esos cuyos resultados parecen una obviedad, pero lo cierto es que nadie hasta ahora había demostrado que una expresión de terror pudo haber salvado más de una vez a nuestros antepasados.

El original se publicará en Nature Neuroscience con el título “Expressing fear enhances sensory acquisition” por Joshua M Susskind, Daniel H Lee, André Cusi, Roman Feiman, Wojtek Grabski, y Adam K Anderson.

De neuronas espejo y erecciones.

De todos es sabido que observar imágenes pornográficas hace que los hombres tengan erecciones. Pero ¿cómo funciona esta respuesta a nivel cerebral? Esto es precisamente lo que el equipo del Dr. Harold Mouras de la Université de Picardie (sí, lo sé...Universidad de Picardía) Jules Verne en Amiens ha intentado averiguar, la fisiología cerebral de las erecciones inducidas visualmente.

El equipo sospechaba que las neuronas espejo podían desempeñar un papel importante. Una neurona espejo es aquella que se activa (dispara) tanto cuando el individuo actúa como cuando ve a otro individuo (especialmente un congénere) realizar la misma acción. Por lo tanto, la neurona refleja como en un espejo el comportamiento del otro individuo tal y como si el que observa fuese el que está actuando.

Los investigadores invitaron a 8 hombres jóvenes al laboratorio y les pidieron que viesen tres tipos de fragmentos de vídeo. A la par que documentales sobre pesca y retazos de Mr. Bean, los voluntarios también vieron vídeos eróticos de hombres acariciando mujeres desnudas, disfrutando de una felación o en pleno acto sexual.

Mientras los voluntarios veían las películas, los investigadores observaban sus cerebros usando resonancia magnética funcional (fMRI, por sus siglas en inglés). Al mismo tiempo vigilaban el otro órgano objetivo usando un pletismógrafo (del gr. plethismós, aumento, y grapho, escribir; aparato que sirve para registrar gráficamente las variaciones de volumen de un miembro; básicamente es un tubo estanco en el que el aumento del tamaño del pene provoca variaciones de presión).

Tal y cómo se preveía, todos los sujetos experimentaron erecciones y muchas partes del cerebro se iluminaron.

Lo interesante fue que el volumen de las erecciones se correlacionaba con la fuerza de la activación en una parte del cerebro llamada pars opercularis (que junto al pars triangularis forma el área de Broca) que es conocida por mostrar actividad de neuronas espejo. Lo más intrigante es que la activación cerebral precede la respuesta del pene: las neuronas espejo serían las que dan la orden.

Este estudio sería por tanto el primero en sugerir que las neuronas espejo no sólo están implicadas en las acciones observadas, sino también en las respuestas automáticas a esas observaciones.


Original: http://dx.doi.org/10.1016/j.neuroimage.2008.05.051

domingo, 15 de junio de 2008

GLAST: abriendo nuevas ventanas.

El pasado 11 de junio era puesto en órbita el Telescopio Espacial de Gran Área de Rayos Gamma, GLAST por sus siglas en inglés (Gamma-ray Large Area Space Telescope). Este telescopio es un paso más en una forma de “ver” el universo que comenzó en el siglo XX. Ponemos a continuación el GLAST en su contexto histórico, basándonos en el texto de Robert Naeye “History of Cosmic Discovery: Opening New Windows”.

Desde el punto de vista de la observación del universo, el logro más importante del siglo XX fue sin duda la apertura de todo el espectro electromagnético, parte del cual sólo es accesible desde el espacio. Los descubrimientos de la radioastronomía, de la astronomía de rayos X o la de rayos gamma destrozaron la visión de un Universo tranquilo y que cambiaba lentamente. Vivimos en un universo de explosiones, colisiones y procesos que implican temperaturas y energías inimaginables que sería incomprensible para los astrónomos de antaño.

Siguiendo los pasos del trabajo pionero de Karl Jansky y Grote Reber en los años 30 y 40 del pasado siglo, los astrónomos se dieron cuenta de que el cielo de radio contenía una riqueza extraordinaria de información acerca del Sistema Solar, las estrellas, las galaxias y de objetos aún más exóticos. Gracias a la apertura de la ventana de radio, los astrónomos descubrieron los quásares, los púlsares, la radiación de fondo de microondas, la estructura espiral de la Vía Láctea, la materia oscura y chorros increíbles disparados desde el centro de las grandes galaxias. Las misiones de la NASA como COBE y WMAP han permitido y fomentado la formulación de teorías acerca del origen y posible futuro del Universo.

En 1962, Riccardo Giacconi y varios colegas abrieron otra ventana más cuando lanzaron un cohete por encima de la atmósfera. Un detector de rayos X encontró la poderosa fuente Scorpius X-1 y un difuso brillo de fondo de rayos X. A consecuencia de este descubrimiento siguieron experimentos con globos y cohetes y satélites de la NASA y la ESA como Uhuru, Einstein, ROSAT, Chandra, XMM-Newton y Suzaku, que han estudiado y estudian agujeros negros, supernovas, chorros relativistas y galaxias activas. Giacconi recibió el Premio Nobel de Física de 2002.

También hacia el final del siglo XX, los científicos abrieron la ventana de los rayos gamma, lo que llevó al descubrimiento de los brotes de rayos gamma, los blázares de rayos gamma, las interacciones de los rayos cósmicos y otros fenómenos. La astronomía infrarroja por su parte proporciona información acerca de las regiones donde se forman las estrellas y ayuda a detectar planetas extrasolares y los discos donde se forman.

Varios observatorios en tierra y en órbita han abierto prácticamente la totalidad del espectro electromagnético, con descubrimientos inesperados prácticamente a cada paso. Pero el espectro de rayos gamma entre los 10 y los 100 gigaelectronvoltios (GeV) está prácticamente inexplorado. El principal instrumento del GLAST, el Telescopio de Gran Área, llenará ese hueco. El instrumento EGRET del Observatorio de Rayos Gamma Compton de la NASA vio pistas de fenómenos interesantes e inesperados en el rango de alta energía, pero el GLAST nos dará la primera visión detallada de esa ventana.

sábado, 14 de junio de 2008

¿Trato hecho? El nivel de serotonina y la toma de decisiones.

¿Qué pasaría si a tu hermano le tocasen 20 millones en la lotería y a ti te regalase solamente un billete de 100? ¿Le tirarías el billete a la cara como protesta? Puede que sí…dependiendo de tu química cerebral. Una nueva investigación sugiere que reacciones emocionales de este tipo pueden estar influenciadas por un déficit del neurotransmisor serotonina.

La investigación ha relacionado los bajos niveles de serotonina en el cerebro con varios estados mentales, incluyendo la depresión y el comportamiento impulsivo e irracional. Un equipo liderado por Molly Crockett de la Universidad de Cambridge ha comprobado los efectos de los niveles del neurotransmisor en la forma en que la gente jugaba al “ultimátum”, un juego usado por los economistas para mostrar que las decisiones económicas de la gente a veces son irracionales.

En el juego, un “proponente” recibe una suma de dinero, parte de la cual ofrece compartir con un “respondedor”. Si el respondedor rechaza la oferta como demasiado baja, ninguno de los jugadores se lleva nada de dinero. Lo que el ultimátum revela es que, si bien un respondedor siempre ganaría aceptando la parte ofertada, algunas veces decide perjudicarse con objeto de castigar al proponente de una oferta injusta.

En el estudio actual, los investigadores reclutaron 20 voluntarios y les pidieron que ayunaran la noche anterior al juego. A la mañana siguiente, algunos de los voluntarios recibieron una bebida con cada uno de los aminoácidos que el cuerpo necesita para fabricar proteínas, excepto triptófano, el aminoácido que interviene en la serotonina. A los sujetos de control se les dio una bebida idéntica pero que sí contenía triptófano.

Ambos grupos jugaron entonces al ultimátum como respondedores. La falta de triptófano no afectó a los estados generales de ánimo de los sujetos ni a su percepción de la justicia de una oferta. Sí parece que hizo sin embargo más probable que rechazaran ofertas injustas. Por ejemplo, cuando sabían que se les estaba ofreciendo solamente el 20% del total, el 86% con déficit agudo de triptófano rechazaron la oferta, mientras que sólo el 67% del grupo placebo lo hizo.

El resultado apoya la visión de que el rechazo de una oferta injusta es un impulso emocional. Tener consideraciones racionales frente a una oferta injusta requiere tragarse el orgullo (o coger el billete) que es una forma de control emocional.

Original: http://www.sciencemag.org/cgi/content/abstract/1155577

viernes, 13 de junio de 2008

Nucleobases extraterrestres


Un equipo internacional de científicos liderados por Zita Martins del Imperial College de Londres ha confirmado que las nucleobases, componentes fundamentales del material genético, que han sido encontrados en los fragmentos de un meteorito son originalmente extraterrestres, según publican en un artículo que aparecerá el próximo 15 de junio en Earth and Planetary Science Letters.

El hallazgo sugiere que parte de las materias primas necesarias para hacer las primeras moléculas de ADN y ARN puede proceder de un lugar que no es la Tierra.

Entre otros compuestos han encontrado uracilo y xantina, que son precursores de las moléculas que componen el ADN y el ARN, en los fragmentos del meteorito Murchinson que se estrelló en Australia en 1969.

Hace entre 3,8 y 4,5 millones de años grandes cantidades de rocas similares al meteorito Murchinson llovieron sobre la Tierra en un tiempo en que la vida primitiva se estaba formando. Este bombardeo habría dejado grandes cantidades de material de meteoritos sobre la superficie de planetas como la Tierra o Marte.

Los investigadores analizaron el material del meteorito Murchinson con el objeto de determinar si las moléculas provenían de fuera de la Tierra o fueron el resultado de una contaminación cuando el meteorito llegó a la Tierra. Los resultados muestran que las nucleobases contienen una forma pesada de carbono (C-13) lo que sólo puede ocurrir en el espacio. Los compuestos formados en la Tierra emplean un isótopo más ligero (C-12). Podría ser entonces que la vida primitiva hubiese adoptado nucleobases de fragmentos meteoríticos.

Los meteoritos no son más que restos de la formación del Sistema Solar, por lo que cabe pensar que los componentes básicos para la vida, incluyendo las nucleobases, pueden estar presentes a lo largo y ancho del Universo.

Original: http://www.sciencedirect.com/science?_ob=ArticleURL&_udi=B6V61-4S3G406-1&_user=10&_rdoc=1&_fmt=&_orig=search&_sort=d&view=c&_acct=C000050221&_version=1&_urlVersion=0&_userid=10&md5=d14b77a37b5fdfa2f307a1b73badb63e

jueves, 12 de junio de 2008

La herencia genética del nomadismo.

Alrededor de 1 de cada 20 niños (por debajo de 18) padecen un conjunto de síntomas que ha venido en llamarse trastorno por déficit de atención con hiperactividad (TDAH). Aproximadamente el 60% de ellos presentan los síntomas también en edad adulta. Para lo que es básicamente un problema genético eso es un montón.

Muchos estudios han mostrado que el TDAH es verdaderamente genético y que no está, como se sospechaba antiguamente, relacionado con tener “malos” padres. Está asociado con algunas variantes en particular de moléculas receptoras de neurotransmisores en el cerebro. Un neurotransmisor es un compuesto químico que lleva mensajes entre células nerviosas (neuronas) y que, en el caso del TDAH, es la dopamina, que controla los sentimientos de recompensa y placer. La idea es que la gente con TDAH reciben una retroalimentación neurológica positiva por un comportamiento inadecuado. La sorpresa es que las variantes de receptores en cuestión siguen ahí. Podría haberse esperado que la selección natural se hubiese encargado de purgarlos...a no ser que tengan algún beneficio compensatorio.

Por supuesto, este análisis gira en torno a la noción de “inapropiado”. El principal síntoma de TDAH es la impulsividad. Los pacientes tienen problemas concentrándose en cualquier tarea a no ser que reciban retroalimentación continua, estímulo y recompensa. Tienden por lo tanto a mariposear de actividad en actividad. Los adultos con TDAH tienden a tener unos rendimientos pobres en la sociedad moderna y son proclives a comportamientos adictivos y compulsivos. Pero, ¿les iría bien a estas personas en circunstancias diferentes?

Una hipótesis es que el comportamiento asociado con el TADH ayuda a aquellas personas que, como los cazadores-recolectores y los pastores nómadas, llevan una vida errante. Desde el momento en que los sedentarios residentes de las ciudades actuales provienen de éstas, la selección natural puede que no haya tenido tiempo de purgar los genes que la causan.

Esto es lo que ha venido a probar el estudio realizado por Dan Eisenberg de la Universidad Northwestern publicado esta semana en BMC Evolutionary Biology (enlace abajo). En él comprobaron la presencia de la variante 7R de la proteína DRD4 (un receptor) en una tribu de pastores nómadas keniata llamada Ariaal. Trabajos anteriores ya habían mostrado que esta variante está asociada con la búsqueda de la novedad, ansia de comida y drogas y TDAH.

El equipo buscó la 7R en dos grupos de Ariaal. Uno aún era pastoril y nómada. El otro hacía poco que se había hecho sedentario. Encontraron que alrededor de un quinto de la población de ambos grupos tenía la versión 7R de la DRD4. Sin embargo, las consecuencias eran muy diferentes. Entre los nómadas, que vagan por el norte de Kenia pastoreando reses, camellos, ovejas y cabras, aquellos con 7R estaban mejor nutridos que los que no la tenían. Lo contrario era cierto para sus parientes sedentarios: los que tenían 7R estaban peor nutridos que los que no la tenían.

Esta investigación plantea la pregunta de si la gente que padece TDAH y los estados asociados, como la adicción, son inadaptados lidiando con una herencia genética que fue útil en su pasado evolutivo, pero que ahora es perniciosa. Conforme la sociedad continúe alejándose de ese pasado evolutivo, las consecuencias económicas y sociales de ser un inadaptado así puede que se conviertan en cada vez más importantes.

Original: http://www.biomedcentral.com/1471-2148/8/173/abstract

miércoles, 11 de junio de 2008

Anticipando el futuro para percibir el presente.


Quedarse mirando a un dibujo para provocar una ilusión óptica es habitualmente un acto de ociosa curiosidad, parecido a la quiromancia o la astrología. El punto desaparece o no. La silueta de la bailarina (ver imagen) se mueve en el sentido de las agujas del reloj o en contra. La cara en tres dimensiones se materializa o no, y la explicación siempre parece tener algo que ver con el ojo o con la creatividad o, incluso, con la personalidad.


De hecho los científicos han investigado estas ilusiones durante cientos de años, buscando claves que nos permitan comprender cómo el cerebro construye un todo ininterrumpido a partir del inestable calidoscopio luminoso que entra por los ojos. Hoy día los neurocientíficos denominan a estas ilusiones perceptivas, no ópticas, porque el sistema visual al completo está implicado, y sus teorías sobre lo que ocurre pueden sonar tan exóticas como la que más.


En el número actual de la revista Cognitive Science el equipo liderado por Mark Changizi del Instituto de Tecnología de California argumenta que es la habilidad adaptativa del cerebro para ver el futuro cercano es lo que crea muchas ilusiones comunes ya que, al necesitar el cerebro un tiempo para procesar la información visual, tiene que anticipar el futuro para percibir el presente.


Un debate fundamental en la investigación visual es si el cerebro usa una bolsa llena de trucos ad-hoc para fabricar un modelo continuo del mundo, o un principio general, como completar imágenes inconexas basándose en la inferencia a partir de nuevos hechos y de la experiencia. La respuesta puede que sea ambas. Pero las ilusiones perceptivas nos permiten echar un vistazo al sistema. Cuando se muestran dos imágenes en rápida sucesión, una de un punto a la izquierda de la pantalla y otra de con el punto a la derecha, el cerebro ve movimiento de izquierda a derecha, aunque no haya ninguno. El sistema visual ha construido aparentemente un escenario después de haberlo percibido, conciliando las imágenes imputando movimiento.


En un experimento realizado por el Dr. Nijhawan, la gente observaba un objeto pasar por delante de una bombilla. La sincronización era exacta: la bombilla se encendía en el preciso momento en el que el objeto pasaba. Pero la gente percibía que el objeto ya había pasado la bombilla antes de que ésta se encendiese. Los investigadores afirman que el cerebro ha evolucionado para ver una fracción de segundo en el futuro cuando percibe el movimiento. Si el cerebro necesita al menos una décima de segundo para procesar la información visual, trabaja con información vieja. Modelando el futuro durante el movimiento, está “viendo” el presente.


El Dr. Changizi y sus colegas mantienen que es un principio general el que el cerebro aplica a una amplia variedad de ilusiones que engañan al cerebro y le hacen percibir movimiento (ver ejemplos en el Original, enlace abajo).


El Dr. Changizi dice que estas ilusiones también pueden darse en la vida diaria. Cuando una bola de golf rueda por la hierba del green y cae repentinamente en el agujero, el cerebro algunas veces percibe un rastro de la bola pasado el hoyo. Pero este tipo de cosas no se experimentan a menudo porque el cerebro es muy bueno disimulando sus errores.


Original: http://www.geocities.com/changizi/pp3.pdf

martes, 10 de junio de 2008

La paradoja de Zenón cuántica viola las leyes de la termodinámica.

La paradoja de la flecha de Zenón dice lo siguiente: se lanza una flecha. En cada momento en el tiempo, la flecha está en una posición específica, y si ese momento es lo suficientemente pequeño, la flecha no tiene tiempo para moverse, por lo que está en reposo durante ese instante. Ahora bien, durante los siguientes periodos de tiempo, la flecha también estará en reposo por el mismo motivo. De modo que la flecha está siempre en reposo. La conclusión paradójica sigue inmediatamente: el movimiento es imposible.

De esta paradoja de Zenón toma su nombre el efecto cuántico llamado así, Zenón: una partícula cuántica inestable, si se observa continuamente, no evoluciona. Este es uno de esos aspectos paradójicos de la mecánica cuántica que tanto confunden. Por si fuera poco, está comprobado experimentalmente. Pues bien, un estudio teórico realizado por el Dr. Gershon Kurizki y sus colaboradores del Instituto Weizmann de Israel y publicado en Nature afirma, basándose en este efecto, que simplemente el medir la temperatura de ciertos sistemas cuánticos a intervalos frecuentes puede que cause que estos desobedezcan una ley básica de la termodinámica.

La termodinámica nos dice que la interacción entre una gran fuente de calor (un baño térmico) y un conjunto de sistemas mucho menores debe hacer que éstos (al menos en promedio) vayan acercándose progresivamente al equilibrio térmico. El estudio de Kurizki et al. muestra que los conjuntos de sistemas cuánticos en contacto con un baño térmico presentan una desviación drástica de esta tendencia presuntamente universal.

Sin tener en cuenta para nada esta ley física, el conjunto puede, ¡ojo!, calentarse cuando ya está más caliente que el baño o enfriarse cuando está más frío. Los investigadores anuncian que si la energía de estos sistemas se mide repetidamente, tanto los sistemas como el baño verán cómo su temperatura aumenta o disminuye y que este cambio depende sólo del ritmo de medida, no de los resultados de estas medidas.

¿Cómo pueden explicarse estos efectos de las mediciones cuánticas? Al contrario de las mediciones clásicas, que pueden ser completamente no intrusivas, la medición de los sistemas los desacopla del baño térmico. Este desacoplamiento, seguido por un reacoplamiento de los dos cuando la medición cesa, introduce energía (a expensas del aparato de medida) tanto en los sistemas como en el baño, por lo tanto calentándolos. Cuando esto ocurre en un muy corto espacio de tiempo, los sistemas no se pueden distinguir del baño.

Para periodos de tiempo más largos, el baño y los sistemas comienzan a intercambiar energía como osciladores acoplados (análogos a muelles conectados). Este intercambio de energía causará que los sistemas cuánticos pierdan energía hacia el baño, de esta forma bajando la temperatura de los conjuntos. Dependiendo, por lo tanto, si las mediciones se repiten a intervalos largos o cortos, podemos enfriar o calentar los sistemas.

Los efectos previstos pueden ser la clave para desarrollar nuevos proyectos para calentar y enfriar dispositivos atómicos, moleculares o de estado sólido. Estos proyectos permitirían controles de temperatura ultrarrápidos mediante mediciones ópticas a velocidades extremadamente altas.




Original: http://www.nature.com/nature/journal/v452/n7188/abs/nature06873.html;jsessionid=9481917E9A20B90A31F4567AF0D860A0



lunes, 9 de junio de 2008

Evolución del cerebro: sinapsis molecularmente complejas

Uno de los grandes retos científicos es comprender las bases del diseño y los orígenes del cerebro humano. Una nueva investigación ha arrojado luz sobre los orígenes evolutivos del cerebro y cómo evolucionó hasta convertirse en la extraordinaria y compleja estructura que se encuentra en los humanos.

La investigación sugiere que no es el tamaño el que da mayor rendimiento al cerebro, sino que, durante la evolución, un procesamiento molecular cada vez más sofisticado de los impulsos nerviosos permitió el desarrollo de animales con comportamientos más complejos.

Actualmente se piensa que los componentes proteínicos de las conexiones nerviosas, llamadas sinapsis, son similares en la mayoría de los animales, desde los humildes gusanos a los humanos, y que es el incremento en el número de sinapsis en los animales más grandes lo que permite un pensamiento más sofisticado.

El estudio realizado por el Dr. Seth Grant y sus equipo del Instituto Wellcome Trust Sanger, publicado el 8 de junio en Nature Neuroscience, ha descubierto importantes diferencias en el número de proteínas en las conexiones neuronales entre diferentes especies.

Los investigadores trabajaron sobre 600 proteínas que se encuentran en las sinapsis de los mamíferos y, para su sorpresa, encontraron que sólo el 50 por ciento está presente en las sinapsis de los invertebrados y un 25 por ciento en los organismos unicelulares que, obviamente, no tienen cerebro.

El conjunto de proteínas que se encuentra en los organismos unicelulares representa la antigua protosinapsis implicada en los comportamientos simples. Este grupo de proteínas se enriqueció con la adición de nuevas proteínas al con la evolución de los de los invertebrados y vertebrados lo que contribuyó a los comportamientos más complejos de estos animales.

El número y complejidad de las proteínas en las sinapsis primero se incrementó cuando surgieron los animales multicelulares y, después, con la aparición de los vertebrados hace unos 500 millones de años.

Uno de los mayores logros del equipo ha sido aislar, por primera vez, las proteínas sinápticas de los cerebros de las moscas, lo que ha permitido confirmar que los invertebrados poseen un conjunto de proteínas más sencillo que los vertebrados.

Aún más importante para comprender el pensamiento humano, es el hecho de que encontraron que la expansión en proteínas que ocurrió en los vertebrados suministró una reserva de proteínas que se usaron en la diferenciación del cerebro en regiones especializadas: córtex, cerebelo y médula espinal.

Ya que la evolución de sinapsis “grandes”, molecularmente complejas ocurrió antes de la aparición de los cerebros grandes, puede ser que estos acontecimientos evolutivos a nivel molecular fuesen necesarios para permitir la evolución de los grandes cerebros de los primates, incluido el hombre, y otros vertebrados.

Estudios del comportamiento de animales en los que las mutaciones habían impedido la expresión de los genes sinápticos apoyan la conclusión de que las proteínas sinápticas que evolucionaron en los vertebrados dieron lugar a un amplio abanico de comportamientos, incluidos aquellos relacionados con las funciones mentales superiores. Por ejemplo, unos de los genes de “innovación vertebrada” llamado SAP102 es necesario para que un ratón use la estrategia de aprendizaje correcta cuando resuelve laberintos, y cuando este gen es defectuoso en humanos aparece una minusvalía mental.

La evolución molecular de la sinapsis es como la evolución de los chips de ordenador: la creciente complejidad leas ha dado más potencia y aquellos animales con los chips más potentes son los que más pueden hacer.


Original: http://www.nature.com/neuro/journal/vaop/ncurrent/abs/nn.2135.html;jsessionid=AB1E75C5075823002C07DDB69D99A205

domingo, 8 de junio de 2008

La irracional eficacia de las matemáticas: las lentes gravitacionales y el Teorema Fundamental del Álgebra


Los matemáticos estaban intentando extender un ilustre resultado en su campo, el Teorema Fundamental del Álgebra. Los astrofísicos estaban trabajando en un problema fundamental en su campo, el problema de las lentes gravitacionales. El que ambos grupos estuviesen trabajando de hecho en el mismo problema es algo que cabía y que no cabía esperar: la “irracional eficacia de las matemáticas” es bien conocida en las ciencias, pero cada nuevo caso produce nuevas ideas y puro deleite.


En su artículo “From the Fundamental Theorem of Algebra to Astrophysics: A `Harmonious' Path" (“Del Teorema Fundamental del Álgebra a la astrofísica: un camino ‘armonioso’ ), que apareció el 5 de junio en las “Notices” de la American Mathematical Society [enlace abajo], los matemáticos Dmitry Khavinson (Universidad del Sur de Florida) y Genevra Neumann (Universidad del Norte de Iowa) describen el trabajo matemático que sorprendentemente les llevó a problemas en astrofísica.


El Teorema Fundamental del Álgebra (TFA), cuya demostración data del siglo XVIII, es una verdad matemática fundamental, elegante en su simplicidad. Cada polinomio complejo de grado n tiene n raíces en los números complejos. En los años 90 del pasado siglo, Terry Sheil-Small y Alan Wilmshurst exploraron la posibilidad de extender el TFA a los polinomios armónicos. En un giro inesperado en 2001, Khavinson, junto a G. Swiatek, aplicaron métodos de dinámica compleja para resolver unos de los casos de la conjetura de Wilmshurst, mostrando que para una cierta clase de polinomios armónicos, el número de ceros es como mucho 3n-2, donde n es el grado del polinomio.


Cuando era investigadora postdoctoral en la Universidad del Estado de Kansas, Neumann mencionó el resultado 3n-2 en una charla, y Pietro Poggi-Corradini se preguntó si la aproximación de dinámica compleja de Khavinson y Swiatek podría extenderse para contar los ceros de funciones armónicas racionales. (Una función racional es un cociente de polinomios, y una función armónica racional es la suma de una función racional y el conjugado complejo de una función racional). Neumann le preguntó después a Khavinson acerca de esta posibilidad. No tenían ni idea sobre cual podría ser la respuesta y, por supuesto, no tenían ni la más remota sospecha que un astrofísico ya había conjeturado la solución.


Khavinson y Neumann sorprendentemente obtuvieron 5n-5 en vez de 3n-2. Se preguntaron si 5n-5 era preciso y si no podría rebajarse algo más. Después de comprobarlo y recomprobarlo, publicaron su resultado en arXiv y volvieron a sus asuntos respectivos. Justo una semana después recibieron un correo electrónico de Jeffrey Rabin de la Universidad de California en San Diego felicitándoles ya que su teorema resolvía la conjetura de Sun Hong Rhie en astrofísica. Khavinson y Neumann no tenían ni la más ligera sospecha de que alguien fuera de las matemáticas estuviese interesado en este resultado.


Rhie había estado estudiando el problema de las lentes gravitacionales, un fenómeno en el cual la luz procedente de una fuente celeste, una estrella o una galaxia, es desviada por un (o unos) objetos(s) masivos que se encuentra entre la fuente de luz y el observador (ver imagen). Debido a la desviación, el observador ve múltiples imágenes de la misma fuente de luz. El fenómeno se predijo por primera vez a comienzos del siglo XIX, usando la mecánica newtoniana. Una predicción más precisa la realizó Einstein en 1915 usando su teoría de la relatividad general, predicción que fue confirmada por la observación en 1919 durante un eclipse solar. El primer sistema de lentes gravitacionales fue descubierto en 1979.


Ocurre que al menos en algunas situaciones ideales se puede contar el número de imágenes de la fuente de luz en un sistema de lentes gravitacionales contando el número de ceros de una función armónica racional; exactamente el tipo de función que Khavinson y Neumann habían estado estudiando. Mientras investigaba el número posible de imágenes producidas por un sistema de lentes gravitacional con n puntos másicos desviando la luz, Rhie había conjeturado el resultado de 5n-5 que tanto había sorprendido a Khavinson y Neumann. Rhie también había aportado una forma ingeniosa de construir un ejemplo de función armónica racional con exactamente 5n-5 ceros. Junto con el resultado de Khavinson y Neumann, este ejemplo establece que 5n-5 es exacto.


Después de conocer el trabajo de Rhie, Khavinson y Neumann contactaron con otros matemáticos y astrofísicos que trabajan en problemas similares y recibieron información que usaron para revisar su artículo (que ha aparecido publicado en los “Proceedings” de la American Mathematical Society). Estas colaboraciones han significado nuevos resultados que irán publicándose.



Original: "From the Fundamental Theorem of Algebra to Astrophysics: A `Harmonious' Path" http://www.ams.org/notices/200806/tx080600666p.pdf

sábado, 7 de junio de 2008

El cerebro plástico: el cociente intelectual se puede mejorar.

¿Pueden los seres humanos aumentar sus cocientes intelectuales (CI) o deben conformarse con los CI que determinan los genes? Hasta hace poco, la genética parecía la ganadora frente al ambiente.

Una nueva investigación llevada a cabo por los doctores Jaeggi y Buschkuehl en la Universidad de Michigan en Ann Arbor, sugiere que al menos un aspecto del cociente intelectual de una persona puede mejorarse mediante el entrenamiento de un determinado tipo de memoria.

La mayor parte de los tests de CI intentan medir dos tipos de inteligencia: fluida (Gf) y cristalizada (Gc). La Gc se basa en las habilidades ya existentes, el conocimiento y las experiencias, a la hora de resolver problemas accediendo a la información contenida en la memoria a largo plazo.

La Gf se refiere a la habilidad para razonar y resolver nuevos problemas independientemente del conocimiento adquirido anteriormente. La Gf es crítica para un amplio espectro de tareas cognitivas, y es considerada uno de los factores más importantes en el aprendizaje. Por otra parte, la Gf está estrechamente relacionada con el éxito profesional y educativo, especialmente en medios complejos y exigentes.

Aunque el rendimiento en los tests de Gf puede ser mejorado con la práctica directa con los propios tests, no hay evidencia de que el entrenamiento en cualquier otro régimen produzca une mejora en la Gf de adultos. Lo que Jaeggi y Buschkuehl han demostrado ahora es que existe transferencia entre el entrenamiento en una exigente tarea que afecta a la memoria a corto plazo y las medidas de Gf. Esta transferencia tiene lugar aunque el entrenamiento no tiene nada que ver con los tests que miden Gf y, además, la mejora en los resultados de Gf depende de la cantidad de entrenamiento. Este resultado implica que nuestro cerebro es más plástico de lo que pensábamos.

Los autores basaron sus experimentos en que si la Gc depende de la memoria a largo plazo (en informática hablaríamos de ROM) la Gf depende de la memoria a corto plazo o, nombrada con más precisión, memoria de trabajo (equivalente a RAM). Este es el tipo de memoria que la gente usa para recordar un número de teléfono o una dirección de correo electrónico por un corto espacio de tiempo o dicho más técnicamente, la memoria de trabajo se refiere a la habilidad tanto de manipular como de usar información almacenada brevemente a pesar de la presencia de factores que puedan distraer la atención.

Los investigadores reunieron cuatro grupos de voluntarios y entrenaron sus memorias de trabajo con una tarea llamada “dual n-back”, que presentaba señales auditivas y visuales que los participantes tenían que almacenar por un tiempo y recordar después.

Los participantes recibieron el entrenamiento en sesiones de media hora una vez al día durante 8, 12, 17 ó 19 días. Para cada uno de estos periodos de entrenamiento, los investigadores midieron las ganancias de los participantes en Gf. Compararon estos resultados con los obtenidos por grupos de control para estar seguros de que los voluntarios realmente mejoraban en Gf, no solamente en sus habilidades a la hora de hacer tests.

Los resultados fueron sorprendentes. Mientras los grupos de control obtenían ganancias, según parece porque tenían práctica con los tests de Gf, los grupos entrenados mejoraron considerablemente más que los de control. No sólo eso, cuanto más se entrenaban los participantes, mayores eran sus ganancias de inteligencia.

Estos resultados muestran, por tanto, que el CI general de los adultos sanos puede ser mejorado entrenando la memoria de trabajo. Queda por determinar si este efecto también se manifiesta en niños y en adultos mayores que se enfrentan a una memoria en deterioro. Asimismo será interesante comprobar si las ganancias en Gf se mantienen en el tiempo una vez cesa el entrenamiento. El equipo ya está trabajando en ello.

Original: http://www.pnas.org/cgi/content/short/0801268105v1

jueves, 5 de junio de 2008

¿Más cerca de crear vida?

Un equipo de investigadores de la Universidad de Harvard ha modelado en el laboratorio una célula primitiva, que es capaz de construir, copiar y contener ADN.

Desde el momento en que no existen registros físicos de qué aspecto tenían las células primitivas de la Tierra, o de cómo crecieron y se dividieron, el equipo de investigación del Proyecto Protocélula ofrece una forma útil de aprender cómo las células más antiguas de la Tierra podrían haber interactuado con el medio hace aproximadamente 3.500 millones de años.

La membrana de ácidos grasos de la protocélula permite a los compuestos químicos, incluidos los que forman el ADN, introducirse en la célula sin la asistencia de los canales proteicos y bombas que son necesarios en las altamente desarrolladas membranas celulares actuales. También de forma diferente a las células modernas, la protocélula no usa enzimas para copiar su ADN.

Estos descubrimientos se han publicado el 4 de junio en el avance en la red de la revista Nature por el equipo de investigadores liderados por Jack W. Szostak.

Algunos científicos han propuesto que los antiguos respiraderos hidrotermales podrían haber sido sitios en los que las moléculas prebióticas (moléculas formadas antes del origen de la vida, tales como ácidos grasos y aminoácidos) se formaron. Una animación (enlace “Exploring Life Origins” abajo) creada por Janet Iwasa del equipo del Dr. Szostak muestra un escenario en el que los ácidos grasos se forman en la superficie de minerales en las profundidades subterráneas, que después se llevan a la superficie por la erupción de un geiser.

Cuando los ácidos grasos se encuentran en un medio acuoso, se disponen espontáneamente de tal manera que sus “cabezas” hidrofílicas (amigas del agua) interactúan con las moléculas de agua circundante y sus “colas” hidrofóbicas (enemigas del agua) están protegidas del agua, resultando la formación de pequeñas esferas de ácidos grasos llamadas micelas.

Dependiendo de las concentraciones químicas y del pH del medio, las micelas se pueden convertir en láminas multicapa de membrana o en vesículas. Los investigadores usan habitualmente las vesículas para modelar las membranas celulares de las protocélulas (existe otra animación al respecto en el enlace “Exploring Life Origins ”, abajo).

La clave de esta investigación estriba en que se ha podido comprobar que los componentes necesarios para copiar el material genético de la protocélula pueden atravesar la membrana. Así pues se está más cerca de hacer una protocélula que, en el medio adecuado, es capaz de crecer y dividirse por sí misma... ¿más cerca de crear vida?

Exploring Origins of Life: http://exploringorigins.org/index.html
Original: http://www.nature.com/nature/journal/vaop/ncurrent/pdf/nature07018.pdf





martes, 3 de junio de 2008

Listos para el GLAST

El Universo alberga numerosos fenómenos hermosos y exóticos, algunos de los cuales pueden generar casi inconcebibles cantidades de energía. Agujeros negros supermasivos, estrellas de neutrones en colisión, corrientes de gases calientes moviéndose a una velocidad cercana a la de la luz…estas son sólo algunas de las maravillas que generan radiación de rayos gamma, la forma más energética de radiación, miles de millones de veces más energética que el tipo de luz visible por nuestros ojos. ¿Qué ocurre como para producir tanta energía? ¿Qué le ocurre al medio cercano que rodea estos fenómenos? ¿Cómo contribuye el estudio de estos objetos energéticos a nuestra comprensión de la naturaleza misma del Universo y como se comporta?

El Telescopio Espacial de Gran Área de Rayos Gamma, GLAST por sus siglas en inglés (Gamma-ray Large Area Space Telescope) abrirá este mundo de alta energía a la exploración y nos ayudará a contestar estas preguntas. Con el GLAST, los astrónomos dispondrán de una herramienta extraordinaria para estudiar cómo los agujeros negros, conocidos por engullir materia, pueden expulsar chorros de gas a velocidades fantásticas. Los físicos serán capaces de estudiar partículas subatómicas a energías mucho mayores que las que se pueden ver en los aceleradores de partículas de la Tierra. Y los cosmólogos obtendrán valiosa información acerca del nacimiento y la evolución temprana del Universo.

Para esta empresa única, que une a las comunidades de astrofísicos y físicos de partículas, la NASA ha formado equipo con el Departamento de Energía de los Estados Unidos y con instituciones de Francia, Alemania, Japón, Italia y Suecia. General Dynamics ha construido la nave espacial. El lanzamiento está previsto para no antes del 7 de junio de 2008. El estado de la misión se puede obtener en www.nasa.gov/glast.

Objetivos de la misión

· Explorar los medios más extremos del Universo, donde la naturaleza pone en juego energías más allá de cualquier cosa posible en la Tierra.

· Buscar señales de nuevas leyes de la física y de lo que compone la misteriosa Materia Oscura.

· Explicar cómo los agujeros negros aceleran inmensos chorros de materia a casi la velocidad de la luz.

· Ayudar a desentrañar los misterios de esas tremendamente poderosas explosiones conocidas como brotes de rayos gamma.

· Contestar viejas preguntas de un amplio abanico de temas, incluyendo las erupciones solares, púlsares y el origen de los rayos cósmicos.

domingo, 1 de junio de 2008

La nueva terapia génica: virus artificiales.



Los virus son verdaderos expertos a la hora de importar material genético al interior de un organismo infectado. Esta particularidad es la que se explota en la terapia génica, en la que los genes se introducen en las células de un paciente para tratar enfermedades o defectos genéticos. Investigadores coreanos informan en un artículo aparecido en Angewandte Chemie que han sido capaces de crear un virus artificial que han podido usar para el transporte tanto de genes como de fármacos al interior de células cancerosas.

Los virus naturales son extremadamente efectivos a la hora de transportar genes al interior de las células para la terapia génica; su desventaja estriba en que pueden iniciar una respuesta inmune o provocar cáncer. Los virus artificiales no tienen estos efectos secundarios, pero no son especialmente efectivos porque su tamaño y forma son muy difíciles de controlar, siendo estás variables críticas para la efectividad. El equipo de investigación dirigido por Myongsoo Lee ha desarrollado una nueva estrategia que permite a los virus artificiales mantener una forma y tamaño definidos.

Los investigadores comenzaron con una estructura proteínica en forma de cinta (lámina β) como plantilla (ver imagen). Las cintas de proteína se organizaron ellas mismas en una doble capa que fija la forma y el tamaño. Asociados en el exterior hay “brazos de proteína” que se unen a hélices cortas de ARN incrustándolas en su estructura. Si este ARN se hace complementario de una secuencia genética específica (en el ADN de la célula receptora) puede bloquear de forma muy efectiva la lectura y, por lo tanto, la expresión de ese gen. Estas secuencias de ARN, que se conocen como siRNA por su denominación en inglés (small interfering RNA – pequeño ARN entrometido, en traducción libre), representan un enfoque prometedor en la terapia génica.

Para mejorar el anclaje de los virus artificiales a las superficies de las células diana se incorporan moléculas de glucosa como componentes superficiales. Los transportadores de glucosa están presentes en la superficie de casi todas las células de mamíferos y son especialmente numerosos en las células tumorales.

Los ensayos realizados con una línea de células tumorales humanas muestran que los virus artificiales transportan muy efectivamente el siRNA al interior de las células y consiguen bloquear el gen objetivo.

Además, los investigadores consiguieron incorporar moléculas hidrofóbicas a los virus artificiales, en concreto un colorante. Este colorante fue transportado al interior de los núcleos de células tumorales. Este resultado es especialmente interesante porque permite pensar en estos virus artificiales como vehículo de agentes antitumorales (fármacos) cuyo objetivo es precisamente el núcleo celular.