domingo, 31 de octubre de 2010

El papel de la comunicación no verbal en los grupos de recolectores.


Se suele dar por asumido que la humanidad debe mucho de su éxito evolutivo a su extraordinaria capacidad de comunicación. Tanto es así que pocos se han molestado en comprobar esta afirmación, que no deja de ser una hipótesis, de forma sistemática. Ahora, un grupo de investigadores encabezados por Andrew King, de la Universidad de Londres, ha contribuido a rellenar este hueco. Sus primeros resultados se publican en Biology Letters.

La práctica de los cazadores recolectores de hacer batidas por los alrededores en busca de plantas comestibles es la responsable de la mitad del nombre que los antropólogos les han dado. Y por una buena razón. La caza era probablemente una actividad esporádica, por lo que una recolección efectiva habría sido crucial para alimentarse hasta la siguiente cacería. King y su equipo han realizado un estudio para comprobar cómo, si es el caso, la comunicación mejora la capacidad recolectora.

Consiguieron que 121 visitantes del Zoo de Londres se prestasen voluntarios y los dividieron en 43 grupos. Cada grupo constaba de entre 2 y siete personas. Algunos estaban integrados por familias y amigos y otros por completos extraños; unos eran monosexuales y otros plurisexuales. A la mitad se les permitió comunicarse con libertad. El resto no podía intercambiar ni señales sonoras ni gestos de cualquier tipo.

Cada grupo era llevado entonces a una habitación en la que había “áreas de recolección”: cajas con 300 tarjetas, unas verdes y otras blancas, dispuestas a una determinada distancia de una base central, “el poblado”. Las tarjetas verdes se consideraban el objeto de recolección y cada caja contenía entre un 5% y un 95% de ellas. Los recolectores no podían ver el interior de las cajas y se les permitía coger sólo una tarjeta cada vez, a través de un agujero, usando su mano dominante. No había restricciones sobre las áreas a visitar, pero cada vez que se sacaba una tarjeta había que llevarla a la base central independientemente del color. El objetivo era recoger tantas tarjetas buenas como se pudiese en un breve periodo de tiempo, no especificado (todas las pruebas duraron 10 minutos). Como incentivo los miembros del grupo ganador recibirían un premio valorado en unos 35 €.

Antes de que los recolectores pudiesen empezar su tarea, se les colocaba una pulsera de radio frecuencia en la muñeca de su mano dominante. Todas las tarjetas verdes tenían también adherida una etiqueta de radiofrecuencia. Estos dispositivos, junto a las antenas colocadas encima de cada caja, permitieron al equipo de investigadores trazar los movimientos precisos de los miembros de cada grupo. A su vez, estos datos hicieron posible determinar cuánto tiempo empleaba un grupo en llegar a un “consenso”, definido como la concentración del 90% de la actividad del grupo alrededor de un sola área.

No es ninguna sorpresa el que los grupos que tenían permitido comunicarse fueran los recolectores más eficaces. La probabilidad de que convergiesen en el área más rica era mucho mayor que la de los grupos en los que la comunicación no estaba permitida. Lo que sí resultó una sorpresa fue la naturaleza de la comunicación que importaba. Los investigadores monitorizaban los niveles de ruido y los gestos de las manos. Los niveles de ruido eran una aproximación a la comunicación verbal; los gestos, para la no verbal. Los investigadores descubrieron que lo único que explicaba la probabilidad de que un grupo se concentrase rápidamente en la mejor área era el uso de gestos, que alcanzaba su máximo justo antes de alcanzarse el consenso. Los niveles de ruido se mantenían más o menos constantes todo el tiempo, sugiriendo que los mensajes verbales no eran tan importantes.

El volumen constante podría enmascarar la importancia variable de lo que se dice. En la segunda parte de la investigación el equipo repetirá el experimento, controlando el significado tanto de lo que se dice como de los gestos. No sólo eso, los gestos de las manos son una señal relativamente local. Sigue sin estar claro si son tan importantes en grupos mayores a media docena de personas, típicos de los recolectores en las sociedades de cazadores-recolectores. La comunicación hablada permite que la información llegue rápidamente a miembros del grupo que están lejos. Esto podría limitar progresivamente la importancia de los mensajes no verbales conforme los grupos se hacen mayores. Pero si los gestos incorporan alguna información vital extra, los miembros de los grupos mayores podrían limitar su comunicación a los correcolectores cercanos, lo que llevaría a la emergencia de subgrupos.

A cualquiera que haya estudiado técnicas de comunicación empresarial, todo esto le suena conocido. Después de todo, no hemos cambiado tanto.

Referencia:

King, A., Narraway, C., Hodgson, L., Weatherill, A., Sommer, V., & Sumner, S. (2010). Performance of human groups in social foraging: the role of communication in consensus decision making Biology Letters DOI: 10.1098/rsbl.2010.0808

viernes, 29 de octubre de 2010

Un plástico que es la leche.


Hubo una época en la que a los plásticos se les consideraba materiales maravillosos. Hoy todavía se encuentran por todas partes y en toda clase de usos, pero la misma estabilidad y resistencia que un día les dio la fama ahora les hace no ser tan deseados. La persistencia no es una cualidad deseable en algo que se termina tirando, y no sólo nos referimos a los envases y embalajes, por lo que muchas personas han empezado a ver los plásticos convencionales de origen petroquímico como una molestia y una amenaza.

Ahora se buscan alternativas biodegradables. Una posibilidad que ha sido investigada recientemente por el equipo de David Schiraldi, de la Universidad Case Western Reserve (EE.UU.), y que publica en Biomacromolecules, supone una propuesta de retorno al pasado y recuperación del uso de uno de los productos orgánicos que se usaron para hacer uno de los primeros plásticos: la leche.

La propuesta implica usar realmente la caseína, la principal proteína que se encuentra en la leche. La cuajada es, en su mayor parte, esta proteína. A comienzos del siglo XX el químico francés J.C. Trillat descubrió que si la caseína se trataba con formaldehído el resultado era una sustancia brillante y dura que funcionaba muy bien como sustituto de materiales como el marfil o el caparazón de tortuga (carey). El entusiasmo que provocó el nuevo producto, llamado galatita, fue tanto que la misma reina de Inglaterra (Mary) encargó varias piezas de joyería hechas con él. Sin embargo la galatita, tal cual, es un producto demasiado quebradizo como para que pueda tener un uso generalizado. Los plásticos petroquímicos lo fueron superando en prestaciones y su producción terminó en los años setenta.

La idea de volver a usar la galatita, sin embargo, siempre ha estado ahí y en estos días, en los que el hecho de que esté hecha de proteínas y, por lo tanto, puede ser degradada por las bacterias, se considera una virtud. Sólo queda superar el problema de la debilidad estructural. Lo que ha hecho el grupo de Schiraldi es usar una arcilla llamada montmorillonita sódica como esqueleto para el plástico.

La montmorillonita sódica puede secarse por liofilización para dar como resultado un material parecido a una esponja llamado aerogel. Los aerogeles son famosos por su fragilidad. Pero eso es porque son mayormente espacio vacío. De hecho algunas veces se les llama “humo sólido”. Esta fragilidad esconde una rigidez subyacente. Si se rellenasen los poros del aerogel con plástico se eliminaría la fragilidad y por otro lado la red de moléculas de la arcilla en el aerogel impediría que el plástico se quebrase. Los investigadores calcularon que si mezclaban caseína con la arcilla y después añadían gliceraldehído (ya que el formaldehído de la receta original es bastante venenoso), podrían obtener algo realmente útil.

Para comprobar sus ideas el equipo mezcló una disolución de caseína con gliceraldehído y montmorillonita sódica y la mezcló intensamente para eliminar las burbujas antes de congelarla a 80 ºC bajo cero. Una vez congelada se colocó en un liofilizador con objeto de eliminar el agua, en lo que empleó cuatro días. Después se “curó” (se denomina así, en el argot, a la polimerización y, en su caso, entrecruzamiento de cadenas poliméricas) durante 24 horas a 80ºC por encima de cero.

Según los investigadores, el material así obtenido iguala al poliestireno expandido, el terror de los vertederos, en lo que se refiere a rigidez, fuerza y compresibilidad. A diferencia del poliestireno, desaparece cuando se arroja a un vertedero. Un primer experimento sugiere que el 20% ya ha desaparecido a los 18 días de estar expuesto a un ambiente que simula el de un vertedero. No tiene el prestigio del broche de una reina, pero puede que sea mucho más útil.

Referencia:

Pojanavaraphan, T., Magaraphan, R., Chiou, B., & Schiraldi, D. (2010). Development of Biodegradable Foamlike Materials Based on Casein and Sodium Montmorillonite Clay Biomacromolecules, 11 (10), 2640-2646 DOI: 10.1021/bm100615a


jueves, 28 de octubre de 2010

Las victorias electorales aumentan el consumo de pornografía.


Cuando se produce una victoria electoral los seguidores del partido ganador lo celebran con vítores, abrazos, cánticos, llorando y, en muchos casos, buscando pornografía en Internet. Esta, al menos es la conclusión que se extrae de un estudio realizado por Patrick Markey (Universidad Villanova; EE.UU.) y Charlotte Markey (Universidad Rutgers; EE.UU.) y que se publica en Evolution and Human Behavior. El matrimonio Markey buscaba con este estudio la confirmación de un fenómeno llamado la hipótesis del reto: los machos que intervienen en competiciones experimentarán un aumento en los niveles de testosterona si ganan, y una caída si pierden.

La hipótesis del reto se propuso en principio para explicar el comportamiento de los machos de las especies monógamas de pájaros durante el apareamiento. En estas especies, los niveles de testosterona de los machos se incrementan en la primavera de forma que aumenta la agresividad contra posibles rivales. Cuando llega la hora para los machos de calmarse y dedicarse a cuidar a la progenie, los niveles de testosterona caen junto con sus tendencias agresivas.

Algo parecido se ha encontrado desde entonces que ocurre con los peces, los lagartos, los lémures de cola anillada, los monos rhesus, los chimpancés y los humanos. En muchos de estos animales, sin embargo, hay un matiz. Los niveles de testosterona no sólo suben para aparearse y bajan para criar. Más bien, la producción de la hormona depende también del éxito del macho en la misma competición por el apareo. En los varones de la especie humana, por tanto, los niveles de la hormona suben anticipando el reto y suben aún más si ese reto se supera con éxito. El fracaso hace que bajen los niveles.

Investigaciones anteriores han encontrado estas subidas y bajadas en luchadores, karatekas, jugadores de tenis, ajedrecistas e incluso en gente que juega a lanzar una moneda. En términos evolutivos tiene sentido: si un macho perdedor continúa siendo agresivo, la probabilidad de que sea herido se multiplica. Una disminución del nivel de testosterona ayuda a rebajar ese riesgo. Por el contrario, el ganador se puede permitir volverse realmente dominante, ya que el peligro de represalias ha sido eliminado.

Para la mayoría de las especies, comprobar que esto ocurre así requiere un montón de monótono trabajo de campo. Pero los Markeys se dieron cuenta de que, en el caso de las personas, podían eliminar el tedio comprobando qué pasaba en esas partes de la red que tienen mucho más tráfico del que nunca reconocerán sus usuarios, asumiendo que los varones, tras un subidón de tetosterona, tendrán más interés en la pornografía que los que no han tenido dicho subidón.

En primer lugar usaron un servicio de la red llamado WordTracker para identificar los diez términos de búsqueda más empleados por las personas que quieren encontrar pornografía (el más suave, “xvideo”). A continuación pidieron a Google Trends que analizase la frecuencia con la que se usaban esas palabras la semana anterior y la posterior a una elección en Estados Unidos, desglosada estado por estado.

Los resultados eran idénticos para las tres elecciones analizadas: las presidenciales de 2004 (ganó Bush) y 2008 (ganó Obama) y las llamadas mid-term de 2006 (los demócratas consiguieron el control de la Cámara de Representantes y del Senado). Independientemente de quien ganase, las búsquedas de pornografía se incrementaron en los estados que habían votado por los ganadores y disminuía en los que habían votado por los perdedores. La diferencia no era grande, del orden del 1 ó 2 por ciento, pero era consistente y estadísticamente significativa.

Referencia:


Markey, P., & Markey, C. (2010). Changes in pornography-seeking behaviors following political elections: an examination of the challenge hypothesis Evolution and Human Behavior, 31 (6), 442-446 DOI: 10.1016/j.evolhumbehav.2010.06.004

miércoles, 27 de octubre de 2010

La falacia cosmista: por qué no existe el cosmos y tú crees que sí

Eduard Büsching envió a Albert Einstein una copia de su libro “No hay dios” en 1929. En la carta de respuesta que envió Einstein el 25 de octubre, éste afirmaba que el libro sólo trataba sobre la no existencia de un dios personal y se declaraba seguidor de Spinoza, afirmando:

Nosotros, los seguidores de Spinoza, vemos a nuestro dios en el maravilloso orden y las leyes de todo lo que existe […]

Esta visión del universo por parte de Einstein como un todo ordenado y armónico condicionó su aceptación de los avances que para la física supuso la mecánica cuántica, a pesar de las evidencias experimentales.

Cincuenta años después, Carl Sagan, no pudo sustraerse a la visión del universo como un “cosmos”, un todo ordenado y armónico. En su famosa serie de televisión de este título, afirmaba: “El cosmos está lleno más allá de toda medida de verdades elegantes; de interrelaciones exquisitas; de la sobrecogedora maquinaria de la naturaleza”. Si nos fijamos bien, es la misma idea de Einstein expresada en términos no tan explícitos.

¿Pero existen realmente ese orden y esa armonía? ¿Existe esa maquinaria universal que les habla de un relojero a los seguidores del diseño inteligente? ¿O es solamente una simplificación a la que nos obliga nuestra limitada capacidad para gestionar la información?

A continuación vamos a explorar someramente algunos aspectos de la física que pondrán en evidencia que, científicamente hablando, no podemos afirmar que exista el cosmos. Es decir, no tenemos base para atribuir al universo, más allá de toda duda razonable, un orden y una armonía. Fundamentalmente porque no sabemos cómo es en sí, fuera de los experimentos y de cómo lo percibimos. Veremos por qué hablar de cosmos es una falacia, la falacia cosmista. A continuación exploraremos brevemente por qué caemos en ella.

Sigue leyendo en Amazings.es

martes, 26 de octubre de 2010

El origen de los macrófagos cerebrales o por qué hay que investigar con embriones.


Las microglías, o células de Hortega, tienen su origen en el saco vitelino y se autorrenuevan, y no proceden de precursores de la médula ósea como los otros macrófagos del cuerpo. Esta es la conclusión de un estudio publicado en Science por un equipo dirigido por Miriam Merad, de la Escuela de Medicina Monte Sinaí (EE.UU.). Este resultado viene a resolver un debate sobre el origen de los macrófagos del cerebro que tiene profundas implicaciones en el estudio y tratamiento de las enfermedades neurodegenerativas.

Los macrófagos son células que forman parte del sistema inmunitario que se dedican a fagocitar residuos y patógenos. Las microglías son los macrófagos del sistema nervioso central. Son importantes a la hora de mantener un cerebro sano y se han asociado con muchas enfermedades inflamatorias y neurodegenerativas, pero su origen, tanto inicial como a lo largo de la vida, era un misterio.

Algunos estudios con ratones habían sugerido que podían reemplazarse por células progenitoras de la médula osea, pero un par de artículos publicados en Nature Neuroscience en 2007 sugirieron que estos experimentos, que implicaban la irradiación de los animales, no eran representativos de la fisiología normal. Desde entonces la contribución de la médula ósea a la población de microglías del cerebro no ha estado clara, de la misma forma que tampoco lo estaba el origen inicial de estos macrófagos.

Para encontrar una respuesta a estas cuestiones el equipo de Merad creó ratones con proteína verde fluorescente asociada al receptor neurotactina (CX3CR1, llamado fractalquina en humanos) que se encuentra en los progenitores primitivos de la médula ósea y en las microglías. La monitorización del desarrollo embrionario de estos ratones permitió detectar la presencia de microglías cuando los embriones tenían diez días y medio, y el fenotipo sugería que no procedían de la médula ósea sino que derivaban del saco vitelino.

Para confirmar esto los investigadores marcaron las células del saco vitelino con la proteína amarilla fluorescente en varios momentos del desarrollo, y controlaron a dónde iban. Encontraron que algunas células progenitoras mieloides del saco vitelino se convertían en microglías, y que la ventana temporal en la que esto se producía era muy limitada, entre los días 7 y 8 del desarrollo embrionario. No sólo eso, sólo un pequeño porcentaje de los macrófagos circulantes y de los tejidos no cerebrales portaban el marcador amarillo, sugiriendo que se derivaban de otra fuente.

Los autores también consiguieron demostrar que las células progenitoras de la médula ósea no contribuyen a la población de microglías en el cerebro adulto sano, a diferencia con lo que ocurre cuando el cerebro se irradia. Esto apoya la idea de que las microglías residentes (es decir, la población de células derivadas del embrión) se mantienen independientemente por autorrenovación.

Este resultado puede verse también desde otra perspectiva: los macrófagos originados en la médula ósea, en determinadas circunstancias (irradiación), tienen la capacidad para entrar en el cerebro y adoptar la morfología de la microglía.

Estos resultados tienen implicaciones en el estudio y tratamiento de las enfermedades neurológicas. La estrategia terapéutica para enfrentarse a la activación de los macrófagos durante una enfermedad neurológica dependerá de dónde pensemos que provienen. Si las células vienen de la médula ósea, una solución sería bloquearlas antes de que lleguen al cerebro. Por otra parte, si el problema son las microglías residentes, que ya están en el cerebro, la solución pasaría por compuestos que atacasen la activación de las células.

Esta investigación pone de manifiesto una vez más la importancia de la investigación con embriones. Este estudio prueba que existen procesos, cuya comprensión es fundamental para el tratamiento de enfermedades, que sólo ocurren durante las primeros días de la vida embrionaria. Y sólo sabremos a ciencia cierta lo que ocurre en los humanos investigando en humanos.

Referencia:

Ginhoux, F., Greter, M., Leboeuf, M., Nandi, S., See, P., Gokhan, S., Mehler, M., Conway, S., Ng, L., Stanley, E., Samokhvalov, I., & Merad, M. (2010). Fate Mapping Analysis Reveals That Adult Microglia Derive from Primitive Macrophages Science DOI: 10.1126/science.1194637

viernes, 22 de octubre de 2010

La dimensión que no puede expresarse como un número entero.


¿Cuánto mide la costa de Gran Bretaña? (How Long Is the Coast Line of Britain?) [1] es un artículo publicado en 1967 por Benoît Mandelbrot (1924-2010) en la revista Science que marcó el inicio de una nueva forma de ver el mundo. A primera vista, la pregunta podría contestarse haciendo mediciones en fotografías por satélites o, para mayor precisión, desde un avión que vuele a lo largo de la costa o, para todavía más precisión, andando a lo largo de ella con una cinta métrica.

Sin embargo, las respuestas obtenidas por estos métodos sólo serían aproximaciones sucesivas a la longitud de la costa de Gran Bretaña. Como señaló Mandelbrot, la longitud obtenida depende de la resolución de la medición, es decir, del tamaño de la curva más pequeña que se pueda ver en una fotografía o ser medible en el lugar. Como consecuencia la línea de costa no tiene una longitud determinable. Análogamente, tampoco un río tiene una longitud determinable. Si analizamos la curva de la costa o la del cauce del río encontraremos que, si las ampliamos, habrá partes de esas curvas que son idénticas con el todo, o muy cercanos a serlo; con una determinada escala de ampliación, el patrón se repetirá a sí mismo. De forma similar, cuanto más ampliamos la fotografía de una nube, más somos conscientes del apilamiento sin fin de estructuras similares más pequeñas que repiten la forma general de la propia nube [2].

El universo está repleto de formas que se repiten a sí mismas a escalas diferentes dentro del mismo objeto. En la terminología de Mandelbrot, se dice que esos objetos son autosimilares.

En el mundo idealizado de las matemáticas, hay figuras bien definidas que son autosimilares y un número infinito de esas figuras pueden generarse por iteración de funciones. Estas figuras tienen propiedades sorprendentes, como que un perímetro sin límites rodee una superficie limitada, o que una superficie sin límites contenga un volumen cero; la explicación está en el hecho de que estas figuras no pertenecen al universo tridimensional que nuestro cerebro de primate percibe. La palabra fractal (creada por Mandelbrot) se creó con la intención de intentar describir una dimensión que no puede expresarse como un número entero; hoy día, sin embargo, “fractal” se suele entender como un conjunto que es autosimilar cuando se amplía.

A diferencia de los fractales matemáticos, no existe ningún objeto en la naturaleza que pueda ser ampliado un número infinito de veces y que siga presentando la misma forma en cada detalle en ampliaciones sucesivas; una de las razones es que átomos y moléculas tienen tamaños finitos. A pesar de ello los modelos fractales pueden aportar aproximaciones útiles de la realidad en un número finito de escalas.

Aparte del propio Mandelbrot [*], muchos científicos han aplicado los fractales como modelos explicativos de distintos fenómenos naturales que incluyen irregularidades a diferentes escalas (algunos ejemplos: redes [3], cinéticas de reacción química [4], ritmo cardíaco [5], estructura a gran escala del universo [6]). Hoy día los fractales se aplican al estudio de materias tan diversas como la mecánica de fluidos, la economía, la lingüística, la formación de cristales, las redes vasculares de los tejidos biológicos y el crecimiento de la población.

Benoît Mandelbrot murió el 14 de octubre. In memoriam.


Imagen: Isla del Conjunto de Mandelbrot es una cortesía de Alexis Monnerot-Dumaine.

Este artículo es la participación de Experientia docet en el VII Carnaval de Matemáticas que este mes organiza El máquina de Turing.

Referencias:

[*] Mandelbrot, B.B. (1982). The Fractal Geometry of Nature. En español, La geometría fractal de la naturaleza. Tusquets (1997).

[1]

Mandelbrot, B. (1967). How Long Is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension Science, 156 (3775), 636-638 DOI: 10.1126/science.156.3775.636

[2]

LOVEJOY, S. (1982). Area-Perimeter Relation for Rain and Cloud Areas Science, 216 (4542), 185-187 DOI: 10.1126/science.216.4542.185

[3]

ORBACH, R. (1986). Dynamics of Fractal Networks Science, 231 (4740), 814-819 DOI: 10.1126/science.231.4740.814

[4]

Kopelman, R. (1988). Fractal Reaction Kinetics Science, 241 (4873), 1620-1626 DOI: 10.1126/science.241.4873.1620

[5]

Ivanov, P., Amaral, L., Goldberger, A., Havlin, S., Rosenblum, M., Struzik, Z., & Stanley, H. (1999). Multifractality in human heartbeat dynamics Nature, 399 (6735), 461-465 DOI: 10.1038/20924

[6]

Luo, X., & Schramm, D. (1992). Fractals and Cosmological Large-Scale Structure Science, 256 (5056), 513-515 DOI: 10.1126/science.256.5056.513

miércoles, 20 de octubre de 2010

Una bacteria que se levanta y anda.

Muchas infecciones resistentes a los fármacos son el resultado de biopelículas bacterianas, agregaciones estructuradas de bacterias que viven sobre las superficies y que son extremadamente resistentes a las condiciones ambientales duras. Un grupo de investigadores dirigido por Gerard Wong, de la Universidad de California en Los Ángeles (EE.UU.), ha encontrado que, durante las fases iniciales de la formación de las biopelículas, las bacterias pueden, literalmente, ponerse de pie y andar como parte de su adaptación a la superficie. Los resultados, muy interesantes desde el punto de vista astrobiológico, se han publicado en Science.

Las bacterias existen en dos estados fisiológicos: la bacteria libre y la que está incorporada a una biopelícula, una comunidad de células, densa y estructurada, gobernada por su propia sociología. Las bacterias en las biopelículas son fenotípicamente (de características aparentes) diferentes de las libres aunque sean genéticamente idénticas. Como parte de su adaptación a una superficie en la que existe una comunidad, se activan y silencian diferentes genes en las bacterias de las biopelículas que cambian drásticamente su comportamiento. Dentro de estas adaptaciones, el grupo de Wong ha observado un mecanismo de motilidad que semeja andar en la Pseudomonas aeruginosa, un patógeno formador de biopelículas parcialmente responsable de las infecciones letales en la fibrosis cística.

Lo que permite el caminar erguido de la bacteria son unas estructuras en forma de pelo, más finas y cortas que los flagelos, llamadas pili del tipo IV, cuya función es análoga a la de las piernas. La posibilidad de caminar le permite a P. aeruginosa moverse con trayectorias optimizadas para la exploración de la superficie, haciendo la búsqueda de alimentos más efectiva. La posición erguida es el primer paso en el desprendimiento de la superficie, lo que les permite extenderse y dispersarse con mayor facilidad.

Los astrobiólogos hace mucho tiempo que estudian las biopelículas porque estas colonias bacterianas se piensa que estuvieron presentes en la historia primitiva de la vida, y este resultado aporta nueva información sobre la historia evolutiva de estas comunidades que podría facilitar la búsqueda de restos químicos que habrían dejado las biopelículas primitivas.


Referencia:

Gibiansky, M., Conrad, J., Jin, F., Gordon, V., Motto, D., Mathewson, M., Stopka, W., Zelasko, D., Shrout, J., & Wong, G. (2010). Bacteria Use Type IV Pili to Walk Upright and Detach from Surfaces Science, 330 (6001), 197-197 DOI: 10.1126/science.1194238

martes, 19 de octubre de 2010

Cómo se silencian genes de forma selectiva.


El equipo de Ingrid Grummt, del Centro Alemán de Investigación del Cáncer, ha demostrado por primera vez que la regulación epigenética, por la que se silencian selectivamente determinados genes, está mediada por el ARN no codificante. Los resultados aparecen publicados en Genes & Development.

Podemos comparar nuestro material genético con un libro. Pero no un libro cualquiera, sino un libro de cocina. De igual forma que tú no cocinas todas las recetas del libro de cocina a la vez, la célula lee aquellas recetas que va a cocinar en el momento. Las recetas son los genes, leer significa a nivel celular crear copias de ARN de los genes individuales que después serán traducidas a proteínas.

La célula usa mecanismos reguladores muy complejos para asegurarse de que no todos los genes se lean al mismo tiempo. Para empezar se necesita que se activen determinados interruptores genéticos; además, hay etiquetas químicas concretas en el ADN que determinan qué genes se transcriben en ARN y cuáles serán inaccesibles, es decir, que páginas del libro están pegadas y no podrán leerse. Este sistema de etiquetado se denomina regulación epigenética.

Entre los mecanismos epigenéticos bien estudiados está el etiquetado de genes por grupos metilo. Esta reacción viene mediada por enzimas especializadas llamadas metiltransferasas que catalizan el proceso por el cual se añaden etiquetas metilo a “letras” concretas (bases) de un gen, de tal manera que el acceso al gen completo está bloqueado. Uno de los grandes misterios de la biología molecular moderna es: ¿cómo sabe la metiltransferasa dónde añadir etiquetas con objeto de desactivar selectivamente un gen en particular?

El equipo de Grummt ha dado un paso de gigante para resolver este misterio. Los investigadores se han centrado en el estudio de esa parte del ADN que tienen todos los libros de cocina que está escrita pero no contiene recetas. A pesar de ello, estos textos se transcriben en ARN de forma controlada. Este ARN que, por tanto, no contiene recetas para proteínas, de ahí que se le llame ARN no codificante, es un regulador importante de la actividad celular que ahora se está empezando a conocer.

Los científicos introdujeron artificialmente una molécula de ARN no codificante llamada ARNp (ARN asociado al promotor de ADNr) dentro de células. Como resultado se añadían etiquetas de metilo a un interruptor génico concreto (el factor de transcripción TTF-1) de tal manera que los genes posteriores a él no podían leerse. Grummt y sus colegas descubrieron que el ARNp es complementario exactamente (encaja como la pieza de un rompecabezas) de la secuencia de ADN de este interruptor génico, y que el ARNp forma una especie de triple hélice (una trenza) con las dos hebras de ADN en la zona del interruptor. Las metiltransferasas por su parte son capaces de acoplarse específicamente a esa trenza y de ahí son dirigidas exactamente al lugar donde está el gen que tiene que bloquearse.

Más de la mitad de nuestro material genético se trasncribe como ARN no codificante. Una posibilidad es que existan moléculas de ARN no codificante que encajen exactamente con todos los genes que puedan ser silenciados. Esto podría explicar cómo una cantidad tan grande de genes puede ser silenciada selectivamente.

Referencia:

Schmitz, K., Mayer, C., Postepska, A., & Grummt, I. (2010). Interaction of noncoding RNA with the rDNA promoter mediates recruitment of DNMT3b and silencing of rRNA genes Genes & Development, 24 (20), 2264-2269 DOI: 10.1101/gad.590910

lunes, 18 de octubre de 2010

Primera imagen de monopolos magnéticos.


Un equipo de investigadores encabezado por Elena Mengotti del Instituto Paul Scherrer (Suiza) acaba de publicar en Nature Physics las primeras imágenes de monopolos magnéticos, concebidos teóricamente por P.A.M. Dirac en los años 30.

Un monopolo magnético es una partícula hasta ahora hipotética que es un imán con un solo polo. Algunas de las teorías más importantes que explican el comportamiento de la materia a nivel cuántico se basan en su existencia, pero no se habían podido detectar desde que fueran descritos teóricamente por Dirac en 1931. Ahora el equipo de investigadores, en el que participa Arantxa Fraile Rodríguez (Universidad de Barcelona), ha conseguido imágenes directas a temperatura ambiente de los monopolos dentro de un nanomaterial magnético artificial compuesto de minúsculos imanes con el tamaño de un par de cientos de nanometros. Este nanomaterial presenta una estructura de kagome y forma un hielo de espín, en el que la estructura cristalina impide la minimización simultánea de las energías de interacción en un punto dado.

Tal y como Dirac predijo, los monopolos observados vienen con “cuerdas asociadas”. Las cuerdas de Dirac alimentan al monopolo de flujo magnético, de la misma forma que una manguera de jardín alimenta de agua un aspersor.

Los investigadores también observaron directamente cómo el polo sur se separaba del polo norte en un campo externo, creando la cuerda de Dirac en su movimiento. Con esto el equipo también demuestra que puede controlar el movimiento de un monopolo.

Esta investigación confirma las lineas de investigación que apuntaban a que los monopolos aparecen en estructuras cristalinas que son sistemas magnéticos frustrados. Véase este respecto Monopolos magnéticos y cuerdas de Dirac en un material.

Referencia:

Mengotti, E., Heyderman, L., Rodríguez, A., Nolting, F., Hügli, R., & Braun, H. (2010). Real-space observation of emergent magnetic monopoles and associated Dirac strings in artificial kagome spin ice Nature Physics DOI: 10.1038/nphys1794

domingo, 17 de octubre de 2010

Existirá algo que se mantendrá constante


Durante más de un siglo la ley de conservación de la energía se ha revelado como una de las leyes más fundamentales de la física. Se la tropieza uno en cualquier aspecto de la ciencia, ya sea puro o aplicado, que toque: física, química, biología, ingeniería. De hecho, ninguna otra ley unifica tanto los distintos campos científico-técnicos, proporcionando a científicos e ingenieros un marco conceptual común.

La ley de conservación de la energía ha tenido un éxito inmenso. Se cree en ella tan firmemente que parece prácticamente imposible que un nuevo descubrimiento pueda desmentirla. Sin embargo, en algunos experimentos, la energía nos puede dar la impresión de que aparece o desaparece de un sistema, sin que pueda atribuirse este hecho a cambios en las formas conocidas de la energía. Los físicos, a pesar de ello, prefieren pensar que la energía toma una forma no investigada, antes que pensar que se viola la ley de conservación.

Por ejemplo, si se aporta energía térmica a un cubo de hielo que se está derritiendo, la temperatura del cubo no se incrementa mientras dure el cambio de estado. Podría pensarse que la energía desaparece. En el siglo XVII, Leibniz (el filósofo) afirmó que no desaparecía sino que la energía se disipaba entre “las pequeñas partes” de los cuerpos. Propuso esta idea específicamente para mantener el principio de conservación de la energía de las colisiones inelásticas y los procesos con fricción. La fe de Leibniz en la conservación de la energía estaba justificada. Otros experimentos mostraron que la “energía interna”, almacenada en el movimiento de las partículas submicroscópicas de los materiales con los que se experimentaba, cambiaba exactamente en la cantidad precisa para explicar los cambios observados en la “energía externa”.

Otro ejemplo similar es el “invento” del neutrino por parte de Wolfgang Pauli en 1930. Los experimentos parecían indicar que la energía desaparecía en determinadas reacciones nucleares. Pauli propuso que una fantasmagórica partícula subatómica, desconocida e indetectable, que Enrico Fermi llamó neutrino, era un producto de estas reacciones y que portaba energía. Los físicos aceptaron la teoría del neutrino durante más de veinte años, aunque no se había demostrado experimentalmente que existiese. Finalmente, en 1956, se detectaron en las radiaciones de un reactor nuclear. Una vez más, la fe en la ley de conservación de la energía resultó estar justificada.

La idea de “conservación” es tan poderosa que los científicos creen que siempre estará justificada. Cualquier excepción a la ley se considera sólo aparente y se tiene el firme convencimiento de que, tarde o temprano, se llegará a comprender de tal forma que no será necesario abandonar la ley. Como mucho, estas excepciones nos llevarían a descubrir nuevas formas de materia o energía, haciendo a la ley incluso más general y poderosa. El matemático, y filósofo de la ciencia, Henri Poincaré expresó esta idea en 1903 en su libro “Ciencia e hipótesis”:

… el principio de conservación de la energía significa simplemente que hay algo que se mantiene constante. Ciertamente, no importa que nuevas ideas sobre el mundo nos den las futuras experiencias, estamos seguros por adelantado de que habrá algo que se mantendrá constante, y a lo que seremos capaces de llamar energía.

Hoy existe un consenso generalizado sobre que las distintas leyes de conservación son algunos de los principales logros de la ciencia. Todas ellas afirman que, sea lo que sea que ocurra en un sistema de cuerpos que interactúan, ciertas variables medibles permanecerán constantes mientras el sistema permanezca aislado.

La lista de leyes de conservación conocidas ha crecido en los últimos años. El área de física de partículas ha producido buena parte de ella. Algunas de las leyes nuevas todavía no se conocen completamente, mientras que otras se mueven sobre una base no del todo sólida. A pesar de ello, una lista como la que damos a continuación, con las leyes de conservación descubiertas, que es parcial y susceptible de ser cambiada, está entre las herramientas básicas de la ciencia de hoy:

1. Momento lineal

2. Momento angular (incluido el espín)

3. Energía (incluyendo masa)

4. Carga eléctrica

5. Número leptónico

6. Número muónico

7. Número bariónico

8. Extrañeza

9. Isospín

Esta entrada es la participación de Experientia docet en la XII Edición del Carnaval de la Física que este mes alberga La ciencia de la mula Francis.

viernes, 15 de octubre de 2010

Más difícil de leer, más fácil de recordar.


Una paradoja educativa es que presentar la información de una manera que parece fácil de aprender a menudo tiene el efecto contrario. Numerosos estudios han demostrado que cuando se fuerza a tener que pensar acerca de lo que se muestra, se recuerda mejor, por lo que merece la pena fijarse en las formas en las que esto pueda hacerse. Una investigación realizada por un equipo liderado por Daniel Oppenheimer, de la Universidad de Princeton (EE.UU.), que aparecerá publicado en Cognition, sugiere una muy sencilla: hacer que el texto que porta la información a recordar sea más difícil de leer.


El equipo de investigadores reclutó a 28 voluntarios de entre 18 y 40 años y les pidió que aprendiesen, a partir de descripciones escritas, las siete características diferenciadoras de tres especies de extraterrestres. La tarea se quería que fuese similar a estudiar especies animales en el contexto de un tema de biología. Se usaron extraterrestres en vez de animales para asegurarse de que los voluntarios no podían hacer uso de los conocimientos previos que pudiesen tener.

La mitad de los voluntarios leyeron el texto escrito en fuentes difíciles de leer (Comic Sans MS y Bodoni MT, ambas de 12 puntos y 75% escala de gris). La otra mitad leyeron el texto escrito en la fuente que numerosas pruebas han demostrado que es una de las más fáciles de leer, Arial de 16 puntos y 100% negra.

A los sujetos se les dio 90 segundos para memorizar la información de las listas. A continuación se les distraía durante quince minutos con tareas no relacionadas, antes de hacerles preguntas sobre los extraterrestres del tipo “¿qué comen los pangerish?” o “¿de qué color tienen los ojos los norgletti?” Los que habían tenido textos escritos en Arial acertaron un 72,8% de las veces, de promedio. A los que se les forzó en leer fuentes más difíciles respondieron correctamente un 86,5% de las ocasiones.

Este es un resultado de laboratorio, ¿funcionaría en el mundo real? Lo hizo. Los investigadores solicitaron a algunos profesores de instituto que usasen esta técnica para impartir algunos temas de química, física, inglés e historia, obteniendo resultados similares.

Moraleja: hay que hacer que los libros de texto sean más difíciles de leer, no más fáciles.

jueves, 14 de octubre de 2010

Las partículas orgánicas de los aerosoles atmosféricos son ¡sólidos!


Las partículas de los aerosoles orgánicos secundarios (AOS) se forman en la atmósfera por la oxidación de compuestos orgánicos volátiles (COV) provenientes en su mayoría (90%) de plantas. Los AOS influyen en el clima de la Tierra de dos formas fundamentalmente: dispersando la radiación solar y actuando como núcleos para la formación de nubes. Por tanto, un conocimiento preciso de sus características físicoquímicas y de los procesos por los que se forman es fundamental para la elaboración de modelos. Un artículo publicado en Nature por un equipo de investigadores encabezado por Annele Virtanen, de la Universidad de Tecnología de Tampere (Finlandia), aporta por primera vez pruebas directas de que las partículas de los AOS, que en los modelos aparecen como líquidas, en realidad son sólidos amorfos.

Los experimentos realizados por el equipo de investigadores no pueden ser más sencillos. En primer lugar los científicos capturaron partículas de AOS de una cámara de crecimiento de plantas que contenía plantones de pino albar (Pinus sylvestris). Las plantas emiten terpenoides (COV naturales) que reaccionan con los radicales hidroxilo (OH-) y el ozono (O3) para formar partículas de AOS. Posteriormente el equipo hizo colisionar las partículas con un sustrato metálico. Si hubiesen estado en un estado líquido las partículas se abrían adherido a la superficie, pero rebotaron.

En el mismo dispositivo se realizaron colisiones empleando otras partículas de aerosol con fases en estados conocidos, tanto líquidos, como sólidos amorfos y cristalinos. Esto permitió hacer una comparación con las partículas de AOS y llegar a la conclusión de que éstas son sólidos amorfos. Posteriormente una microscopía electrónica vino a confirmar los resultados.

Los investigadores repitieron los experimentos tomando las muestras esta vez en un bosque de Finlandia. Si bien el comportamiento de estas partículas de AOS atmosféricas no era exactamente igual que el de las de la cámara de crecimiento, el factor de rebote era más bajo, aún era significativamente mayor que el de las partículas líquidas (dioctil sebacato) y algo mayor que el de las cristalinas (sulfato de amonio).

La creencia de que el tipo más importante de partícula presente en la atmósfera, el componente orgánico de las partículas de aerosol atmosférico, sea un líquido, está muy arraigada. Sin embargo el que sea un sólido cambia, posiblemente de forma significativa, sus efectos e implica, probablemente, la necesidad de revisar los modelos climáticos y de predicción meteorológica. Así, por ejemplo, una partícula sólida tiene una vida media superior a la de un líquido debido a los límites de difusión para el transporte de reactivos al interior de las partículas, incluído el agua. Esto quiere decir que el envejecimiento de los aerosoles en la atmósfera se verá afectado, así como su capacidad para actuar como núcleos de condensación para la formación de nubes, lo que tiene implicaciones obvias sobre el papel de la AOS en el clima.

Este descubrimiento no significa que los modelos climáticos actuales estén completamente equivocados, pero sí permite mejorar el tratamiento de las mayores incertidumbres en esos modelos, que tienen que ver, precisamente, con los efectos refrigerantes de los aerosoles.

Referencia:

Virtanen, A., Joutsensaari, J., Koop, T., Kannosto, J., Yli-Pirilä, P., Leskinen, J., Mäkelä, J., Holopainen, J., Pöschl, U., Kulmala, M., Worsnop, D., & Laaksonen, A. (2010). An amorphous solid state of biogenic secondary organic aerosol particles Nature, 467 (7317), 824-827 DOI: 10.1038/nature09455

martes, 12 de octubre de 2010

Procesos cardiovasculares y vida social.


El corazón y su ritmo tienen una relación compleja con cómo tratamos y evaluamos a los demás, con cómo nos enfrentamos al estrés social y con cómo gestionamos nuestras emociones. La investigación de la relación entre los procesos cardiovasculares y la vida social es muy reciente.

En 1995 Stephen Porges, de la Universidad de Illinois (EE.UU.), propuso la teoría polivagal, una teoría que pone el énfasis en el papel del ritmo cardíaco en el comportamiento social. La teoría afirma que el nervio vago, un nervio que probablemente sólo se encuentre en los mamíferos, aporta información al corazón para regular comportamientos tan complejos como la creación y destrucción de las relaciones con otras personas. Una característica distintiva de la teoría polivagal es que no dice que lo importante sea el ritmo cardiaco (RC) por sí mismo, sino sus variaciones. Desde 1995 se han publicado una cantidad considerable de estudios que apoyan la teoría polivagal y que han demostrado la importancia del corazón en las interacciones sociales.

Así, por ejemplo, un equipo dirigido por el propio Porges monitorizó [1] a un grupo de niños pequeños mientras interactuaban socialmente con un miembro del equipo (que les arrullaba, hablaba y sonreía) y cuando se encontraban con el experimentador mientras éste sólo mostraba una cara sin expresión. Los resultados, publicados en Child Development, El RC de los niños no sólo se incrementaba durante la interacción social, sino que también los incrementos en RC predecían una mayor atención y participación activa por parte de los niños durante la interacción. De forma análoga en adultos, el RC parece estar asociada con el éxito a la hora de regular las propias emociones durante la interacción social, con la extraversión y un estado de ánimo positivo en general.

En la reunión de la Society for Personality and Social Psychology celebrada este año en Las Vegas (EE.UU), Bethany Kok y Barbara Frederickson, de la Universidad de Carolina del Norte en Chapel Hill (EE.UU.), presentaron un los resultados de un estudio [2], que se publicarán Biological Psychology, en el que se pedía a 52 adultos que informasen diariamente durante nueve semanas de los momentos en los que experimentaban emociones positivas (felicidad, admiración, gratitud) y lo socialmente conectados que se sentían. Los investigadores también midieron la RC de cada voluntario al comienzo y a la finalización del estudio, durante sesiones de dos minutos de respiración normal, esto es, midieron el tono vagal en reposo. El RC al comienzo del estudio predecía lo rápidamente que los sujetos desarrollaban sentimientos positivos y experimentaban conectividad social a lo largo del periodo de nueve semanas. Además, las experiencias de conectividad social predecían los incrementos en RC al final del estudio, demostrando la relación recíproca entre el ritmo cardíaco y tener experiencias sociales satisfactorias.

Aunque una alta variabilidad en el ritmo cardíaco parece que tiene enormes efectos positivos en el estado emocional de las personas, así como en su capacidad de adaptarse a su entorno social, las últimas investigaciones complican este cuadro. Según los últimos resultados del laboratorio de psicofisiología de la Universidad de Harvard, parece ser que la capacidad de modular el RC también promueve la sensibilidad social.

Blaise Pascal escribió en el siglo XVII que “Conocemos la verdad no solo por la razón, sino por el corazón”. Puede que no estuviese muy desencamninado.


Referencias:

[1]

Bazhenova OV, Plonskaia O, & Porges SW (2001). Vagal reactivity and affective adjustment in infants during interaction challenges. Child development, 72 (5), 1314-26 PMID: 11699673

[2]

Kok, B.E. & Fredrickson, B.L. (en prensa). Upward spirals of the heart: Autonomic flexibility, as indexed by vagal tone, reciprocally and prospectively predicts positive emotions and social connectedness. Biological Psychology [PDF]

jueves, 7 de octubre de 2010

La brillante idea del Dr. Hawking


En 1974 Stephen Hawking llegó al convencimiento teórico de que los agujeros negros no podían ser negros, si acaso gris muy oscuro. Un agujero negro se dice que es negro porque se supone que nada, ni siquiera la luz, puede escapar de su atracción gravitatoria. Según Hawking, sin embargo, debido a una de esas rarezas de la mecánica cuántica, un agujero negro debería brillar muy muy débilmente, como los rescoldos en una hoguera a punto de apagarse. Las implicaciones eran tremendas. Al emitir, la que dio en llamarse radiación de Hawking, un agujero negro iría perdiendo gradualmente energía y masa. Si no consigue incorporar más masa terminaría evaporándose completamente, como un charco en un cálido día de verano.

El problema del resultado de Hawking es que, como corolario, predecía que la temperatura típica a la que un agujero negro emite radiación debería ser del orden de una milmillonésima de la radiación de fondo que dejó el mismísimo Big Bang. Por tanto, la comprobación experimental observando la radiación emitida por un agujero negro es imposible, hoy por hoy, en la práctica.

En un artículo [1] subido a arXiv, y aceptado para publicación en Physical Review Letters, un equipo de investigadores dirigido por Daniele Faccio de la Universidad de Insubria (Italia) afirma, sin embargo, que ha detectado la radiación de Hawking en el laboratorio. No necesitaron crear un agujero negro, simplemente dispararon pulsos de luz láser a un bloque de vidrio. Esto creó una región de la que la luz no podía escapar (análoga a una agujero negro) y también su opuesta, una región en la que la luz no podía entrar. Cuando el equipo de investigadores enfocó una cámara apropiada al bloque de vidrio, recogieron el débil resplandor de la radiación de Hawking.

Pero, ¿qué tiene que ver una cosa con la otra? ¿Cómo se relaciona lo que ocurre en un trozo de vidrio en la mesa de un laboratorio con uno de los objetos más espectaculares del universo?

Si una estrella moribunda tiene masa suficiente, puede colapsar y formar una región de densidad infinita llamada singularidad. La gravedad de un objeto así es tan intensa que nada, ni siquiera la misma luz, puede librarse de ella si se le ocurre pasar lo suficientemente cerca de él. El límite a partir del cual ya no hay escape se llama horizonte de sucesos.

En el año 1974 Hawking se paró a considerar qué pasaba justo en el borde del horizonte de sucesos. Según la mecánica cuántica, el espacio vacío es cualquier cosa menos vacío. Más bien es un caldero en ebullición de partículas evanescentes. Durante breves períodos de tiempo, estas partículas pasan a la existencia desde la pura nada, dejando atrás agujeros en la nada. Estos agujeros son sus antipartículas. Poco tiempo después, la partícula y su agujero se recombinan, y vuelve la nada.

Si resulta que el par partícula-agujero aparece en el borde de un horizonte de sucesos, puede ocurrir que la partícula o su agujero crucen el horizonte de sucesos para nunca más volver. Al otro componente del par no le queda otro remedio que hacerse real. Estas partículas, la mayor parte de las cuales son fotones, son las que constituyen la radiación de Hawking, y como los fotones y los antifotones son iguales, los agujeros contribuyen de la misma manera que las partículas.

Pero ¿de dónde viene la energía de estos fotones que han surgido de la nada? Del mismo agujero negro, que de esta forma se evapora gradualmente. La radiación de Hawking une campos tan aparentemente inconexos como la gravitación, la mecánica cuántica y la termodinámica, convirtiéndose por ello un concepto importante de la física teórica de los últimos 30 años.

En 1981 este concepto se vio ampliado. William Unruh de la Universidad de British Columbia (Canadá) puso de manifiesto [2] que los agujeros negros son realmente ejemplos extremos de una clase más amplia de sistemas físicos que pueden formar horizontes de sucesos. Consideremos, por ejemplo, un lago de aguas tranquilas. Si tiramos una piedra veremos cómo las ondas que origina se expanden en círculos en todas direcciones. Si hacemos el experimento cerca de una salida del lago donde el agua comienza a moverse, veremos que las ondas ya no son circulares sino que se ven deformadas en la dirección del movimiento. Si existiese una zona de aguas rápidas en la salida, llegaría un momento en la que la velocidad sería tan alta que las ondas de la superficie ya no pueden ir corriente arriba. Se ha formado un horizonte de sucesos en el curso de agua, las ondas ya no pueden escapar si lo sobrepasan. En la imagen vemos que las perturbaciones del agua que cae no consiguen afectar a la placidez de la del lago de arriba, ya que han sobrepasado el horizonte de sucesos, que está unos metros antes de la salida del agua.

Lo que el equipo de Faccio ha sido capaz de hacer es una versión de este fenómeno en la que intervienen fotones. Se basan en que, conforme el pulso de luz láser se mueve a través de la pieza de vidrio (sílice fundida), cambia el índice de refracción del mismo (la velocidad a la que la luz se mueve a través del material) por tratarse de un medio no lineal (para saber por qué ocurre esto se puede leer a Migui o a Francis). La luz en la proximidad del pulso se ve más y más ralentizada conforme el índice de refracción va cambiando con el paso del pulso.

Para ver cómo un pulso “A” puede actuar como un agujero negro, imagina que lo enviamos tras otro más débil y lento, “B”. Poco a poco A va alcanzando a B, reduciendo la velocidad de la luz en las proximidades del pulso lento, B. Esto ralentizará aún más el pulso lento B hasta que finalmente se desacelere tanto que se pare. Básicamente, el frente del pulso perseguidor A lo ha “capturado”, actuando como el horizonte de sucesos de un agujero negro.

Ahora imagina que enviamos otro pulso “C” tras el A, pero C es más débil. Conforme C se acerca a la cola de A también reduce la velocidad (porque la velocidad de la luz en el vidrio que está atravesando ha sido reducida por el paso de A). Cuanto más se acerca, más lento viaja, y nunca puede terminar de alcanzarlo. La cola de A se ha convertido también, por tanto, en otro horizonte de sucesos. En este caso, sin embargo, impide que las cosas entren más que evitar que salgan. Parece la antítesis de un agujero negro, por lo que podemos llamarlo un agujero blanco.

En el experimento llevado a cabo, no había pulsos B ni C. Su papel lo representaban los fotones evanescentes que surgían de la nada alrededor de A. Conforme el pulso pasaba a través del vidrio, sus horizontes de sucesos podrían haber “barrido” algunos de estos fotones, produciendo la radiación de Hawking con los que dejaban atrás.

Cuando el equipo de investigadores enfocó la cámara y disparó 3600 pulsos del láser, registró un débil resplandor precisamente en el rango de frecuencias que la teoría de Hawking predice. Tras una cuidadosa consideración y descarte de otras posibles fuentes para esta luz, concluyen que han observado realmente la radiación de Hawking por primera vez.

Aunque estos estudios no pueden probar con certeza que los agujeros negros emiten radiación y se evaporan, sí apoyan las ideas que usó Hawking en su razonamiento.

Referencias:

[1]

F. Belgiorno, S. L. Cacciatori, M. Clerici, V. Gorini, G. Ortenzi, L. Rizzi, E. Rubino, V. G. Sala, & D. Faccio (2010). Hawking radiation from ultrashort laser pulse filaments Physical Review Letters arXiv: 1009.4634v1

[2]

Unruh, W. (1981). Experimental Black-Hole Evaporation? Physical Review Letters, 46 (21), 1351-1353 DOI: 10.1103/PhysRevLett.46.1351