martes, 25 de septiembre de 2012

La evolución del simbolismo matemático.

Página del Liber abacci de Leonardo Pisano "Fibonacci"


Todos, en mayor o menor medida, estamos familiarizados con el simbolismo matemático. En un país mínimamente desarrollado es difícil encontrar a alguien que no sepa qué significan estos cinco símbolos en este orden: 2+1 = 3. De hecho, la presencia del simbolismo matemático es tan común, efectiva y eficiente que ni nos paramos a pensar que durante buena parte de la existencia de la humanidad no existió. Ni siquiera durante la mayor parte de la historia de la escritura. Y es que el simbolismo matemático es un invento progresivo, con avances y retrocesos, y que no toma carta de naturaleza plena hasta el siglo XVII. Europa será el crisol donde se obtenga.

El uso de símbolos para representar ideas matemáticas es lo que caracteriza a una rama de éstas que conocemos como álgebra. En una expresión algebraica como

x3-ax2+10x-1 = 5

podemos distinguir tres tipos de símbolos: por una parte los que representan cantidades conocidas (10, 1, 5) o dadas (a), por otra los que representan cantidades desconocidas o incógnitas (en este caso x) y, finalmente los que expresan operaciones o relaciones (3, 2, +, -, =). En puridad, existe un cuarto simbolismo que es posicional, es decir, cómo cambia el significado de un símbolo por la posición con respecto a los demás, pero en lo que sigue no nos referiremos a él explícitamente y nos concentraremos en el origen de los otros tres tipos.

Muchas civilizaciones anteriores a la griega, particularmente la babilonia y la egipcia, tienen textos matemáticos. Suelen ser tablas contables, de control de producción agrícola o de medida de terrenos, aunque alguno hay de lo que parece entrenamiento en cálculo. Todos estos textos tienen en común que describen los problemas literariamente y que el sistema de numeración se basa en la repetición de símbolos. Estos textos emplean el mismo sistema de escritura durante, literalmente, miles de años sin cambios sustanciales. Ello nos hace ver que cumplían con las necesidades de escribas, almaceneros, agrimensores y cobradores de impuestos. O, visto de otra manera, no existía una necesidad de abstracción matemática que favoreciese la aparición de una forma más eficiente de representar las relaciones entre cantidades.

Hay que esperar a la era imperial romana para encontrar un avance realmente significativo, aunque sea de manos de un griego. Los griegos representaban las cantidades numéricas empleando letras, pero Diofanto, probablemente en el siglo III de la era común, da un paso más en el simbolismo en su Aritmética, la misma que Fermat estudiaba cuando se le ocurrió su famoso último teorema. Introduce abreviaturas para las expresiones más habituales así como una notación especial para la incógnita y las distintas potencias de la incógnita. El gran paso hacia la abstracción matemática de Diofanto fue crear una abreviatura para “igual a”, lo que constituye un paso fundamental desde un álgebra verbal, descriptiva, hacia un álgebra simbólica y abstracta.

A pesar de sus carencias (sólo existe una incógnita, no existe notación para un número general conocido, etc.) Diofanto consigue separarse de la geometría como único modo de expresar los conceptos y operaciones matemáticos.

Tras Diofanto se entra en los años oscuros donde prácticamente no existen avances. Habitualmente, los libros de historia, y algún conferenciante TED, citan los trabajos de los árabes como transmisores de la cultura grecolatina y, por tanto, de las matemáticas. Hay muchos que piensan en la labor realizada por los traductores en Castilla como fundamental. Y, efectivamente, esto es así, pero no para el avance del simbolismo algebraico, que retrocede a épocas anteriores a Diofanto, con un retorno a la literalidad y la geometría. En el 1800 a.e.c. los babilonios resolvían ecuaciones cuadráticas expresadas en forma de texto; tres mil años después, a comienzos del siglo XII e.c., Omar Jayam sigue haciéndolo igual.

La conexión con el conocimiento musulmán existe pero es diferente a la que habitualmente se cree. Fueron los intereses comerciales de Leonardo Pisano, más conocido como Fibonacci, y sus viajes por el Mediterráneo, particularmente a Egipto, donde habría entrado en contacto con las ideas matemáticas persas e hindúes además de las musulmanas, los que trajeron una revolución a Europa en forma de libro.

El Liber abacci (1202) de Fibonacci probablemente tenga uno de los comienzos más revolucionarios de la historia de la ciencia. Comienza tal que así:

“Hay nueve figuras de los indios: 9,8,7,6,5,4,3,2,1. Con estas nueve figuras, y con el signo 0 que en árabe se llama zephirum, se puede escribir cualquier número, como se demostrará.”

Los siguientes 7 capítulos del libro (de un total de 15) se dedican a explicar cómo usar y realizar operaciones con estos nuevos numerales.

Fibonacci aporta un avance fundamental, como vemos, que facilita la aritmética enormemente. Pero sigue habiendo limitaciones importantes. Fibonacci usa un sistema sexagesimal para expresar sus resultados. La fundamental, sin embargo, es que para incógnitas y operaciones Fibonacci también sigue a los musulmanes aunque traduciéndolos al latín italianizado. Así aparecen radix (raíz), res/causa/cosa (para la incógnita), census (propiedad, para el cuadrado), o cubus (cubo). Los problemas se siguen expresando literariamente.

Los desarrollos son muy lentos y, si bien los nuevos numerales indo-arábigos se popularizan rápidamente, hay que esperar hasta 1494, a la Summa de Luca Pacioli, para registrar un nuevo avance, que parece un retroceso. Pacioli vuelve a un sistema parecido al que Diofanto usó más de mil doscientos años antes, usando los numerales de Fibonacci y expresando la incógnita como co, su cuadrado como ce y el cubo como cu, simples abreviaturas de los nombres italianos.

Se producen algunos avances menores más, pero el sistema de Pacioli es tan eficaz para el uso habitual que será necesaria una crisis matemática para provocar el siguiente paso adelante en la notación simbólica. Y esa crisis será la resolución de la ecuación cúbica.

Diofanto y Cardano ya asumían la existencia “operativa” de los números negativos. Cardano atribuía la misma operatividad de facto a los complejos, pero para Rafael Bombelli que atacaba la resolución de ecuaciones cúbicas irreducibles y llegó a dar reglas de signos para la operación con números complejos, la notación disponible era una tortura. Bombelli se ve forzado a la introducción del corchete en su obra l'Algebra (1572):

Multiplichisi, R.c.[2 più di meno R.q.3] per R.c. [2 meno di meno R.q.3]

donde R.q. y R.c. son, respectivamente, la raíz cuadrada y la raíz cúbica.

El simbolismo moderno estaba a punto de surgir de pura necesidad. Los avances en trigonometría y sobre todo en álgebra requerían una forma más racional de expresar ideas matemáticas. Y este avance se dio en dos pasos gigantescos. Pero esos pasos se darían en Francia, que se convertiría en los siguientes siglos en el centro de las matemáticas.

El primero lo supuso la publicación de De artem analyticem isagoge en 1591 por parte de François Viète. En honor a la verdad, este libro fue un gran paso adelante y uno pequeño hacia atrás. Adelante porque en él se emplean de forma sistemática letras para representar números. Si bien esta idea se puede remontar a Diofanto, Viète va más allá y distingue rangos de letras y sus aplicaciones. Las cantidades podían ser de dos clases: “cosas buscadas” (quaesita) y “cosas conocidas” (data). Las incógnitas se escribían usando vocales mayúsculas A,E,I,O,U,Y y las constantes con consonantes también mayúsculas B,C,D,F,... Por ejemplo, en simbolismo de Viète la ecuación

bx2+dx = z

pasa a ser

B in A quadrum, plus D plano in A, aequari Z solido

Este ejemplo también ilustra el paso atrás que mencionábamos antes, que es un retorno a la geometría que se expresa a través de la “ley de homogeneidad”, según la que todos los términos de la ecuación deben tener las mismas dimensiones. Como bx2 tiene tres dimensiones, dx también debe tenerlas (de ahí lo de D plano) al igual que z. Esto hace la notación tediosa y aparentemente poco operativa, si bien Viète manejaba polinomios de grado 45 con soltura.

Y entonces llegó La géométrie de René Descartes en 1637. Este libro es el primero que se lee como un texto moderno de matemáticas. Descartes toma todos los conocimientos existentes sobre simbolismo matemático, los simplifica, los racionaliza y los emplea en un libro que marca el comienzo de la geometría algebraica. Sólo dos cosas importantes están ausentes: el signo = para la igualdad y, paradójicamente, los ejes cartesianos, y es que Descartes no veía la necesidad de que los ejes estuviesen a 90 grados.

En La géométrie las letras minúsculas del comienzo del alfabeto representan datos conocidos, y las letras del final del alfabeto las incógnitas buscadas. La x se convirtió en la representación de la incógnita por antonomasia porque Descartes le dio libertad a su impresor de usar la letra del final del alfabeto que más le conviniera, eligiendo éste la x porque es la que menos uso tiene en francés.

A partir de este momento se produce una triple revolución en las matemáticas: la generalización de la impresión de libros, el uso de un simbolismo potentísimo y la posibilidad de reducir la geometría a álgebra supondrán un florecimiento tal, que en sólo cincuenta años después de La géométrie se publicaba, por ejemplo, los Principia mathematica de Newton.

La historia aquí presentada es muy esquemática y existen matizaciones y adiciones muy interesantes que se podrían hacer. Pero me temo que quedarán para otras entradas.

Esta entrada es una participación de Experientia docet en la Edición3'141592 de Carnaval de Matemáticas que acoge  ZTFNews.


lunes, 24 de septiembre de 2012

Explorando los mecanismos del dolor: la rata topo desnuda y su tolerancia a los vapores ácidos.


Hay animales que parecen de otro mundo, por lo diferente de sus adaptaciones al medio. En la rata topo desnuda (Heterocephalus glaber) confluyen multitud de características que la hacen única: su aspecto, su extrema longevidad, su alta resistencia al cáncer o su capacidad de vivir en hipoxia, son algunos. Las ratas topo desnudas son capaces de sobrevivir, además, en entornos que otros mamíferos, incluidos los humanos, encontrarían intolerables. Pamela LaVinka y Thomas Park, de la Universidad de Illinois (EE.UU.), publican en PloS ONE los resultados de un estudio en el que se explora el mecanismo por el que las ratas son capaces de soportar la exposición a vapores ácidos sin experimentar dolor. Una adaptación tan peculiar permitirá comprender mejor los mecanismos del dolor en general.

Las H. glaber viven en colonias subterráneas de entre 30 y 200 individuos muy organizadas (véase el vídeo abajo) en el este de África. En estas colonias los niveles de dióxido de carbono aumentan hasta niveles que serían tóxicos para otros mamíferos, y la combinación con la humedad convierte el aire en una mezcla ácida. Buena parte del dolor persistente de una herida, por ejemplo, está causado por la acidificación del tejido dañado. El estudio de un animal que no siente dolor en un entorno ácido, y que incluso prolifera en él, podría llevar al descubrimiento de nuevos tratamientos para el alivio del dolor.

En las narices y hocicos de los mamíferos existen fibras nerviosas especializadas que se activan por la exposición a vapores ácidos y que, en última instancia activa el núcleo trigémino en el encéfalo lo que, a su vez, provoca respuestas fisiológicas y de conducta para proteger al animal: segregación de moco, frotarse la nariz y retirarse para evitar los vapores ácidos, son las más comunes.

LaVinka y Park colocaron ejemplares de H. glaber en un sistema de jaulas en el que había vapores ácidos (de ácido acético) en algunas zonas. A los animales se les permitía moverse libremente por el sistema y se medía el tiempo que pasaban en cada zona. Su comportamiento se comparó con el de otra especie de rata topo (Fumokys damarensis), ratas de laboratorio (Sprague-Dawley y Long-Evans) y ratones (C57BL/6).
Las H. glaber pasaron tanto tiempo en las zonas con vapores ácidos como en las demás mientras la concentración de vapores no superó el 20%; evitaron las zonas ácidas en concentraciones del 50%. Todas las especies control evitaron las zonas ácidas.

La cuestión era, ¿llegaba la señal de acidez al encéfalo en H. glaber? Para determinarlo los investigadores estimularon a las ratas con vapores ácidos al 20% y después midieron la expresión de una proteína, c-Fos, que es un indicador indirecto de la actividad a la que está sometido un nervio. En H. glaber no se encontró actividad en el núcleo trigémino, mientras que en los animales de control esta parte del encéfalo estaba muy estimulada. Análisis posteriores determinaron que ni siquiera la exposición al 50% estimulaba esta vía en H. glaber, y que en su comportamiento de evitar zonas con ese nivel de acidez influyese el olfato.

Por tanto, las ratas topo desnudas tienen alteraciones genéticas que modifican lo que en otras especies es la percepción del dolor vía el nervio trigémino, lo que es consistente con su adaptación a vivir en entornos permanentemente ácidos. Un resultado muy interesante, de un animal sorprendente, y que abre líneas de investigación muy prometedoras.

Información relacionada: El secreto de las ratas topo desnudas




Esta entrada es una participación de Experientia docet en la XVI Edición del Carnaval de Biología que acoge El blog falsable.


Referencia:

LaVinka PC, Park TJ (2012) Blunted Behavioral and C Fos Responses to Acidic Fumes in the African Naked Mole-Rat. PLoS ONE 7(9): e45060. doi:10.1371/journal.pone.0045060



viernes, 21 de septiembre de 2012

La verdad sobre la enfermedad de Alzheimer sigue siendo incómoda


Para no perder la costumbre, siguen apareciendo muchas noticias sobre el alzhéimer: diagnóstico precoz, prevención, tratamientos sintomáticos, vacunas. Uno puede tener la sensación de que estamos avanzando rápidamente en encontrar una solución, pero es sólo eso, una ilusión. Los datos básicos sobre la enfermedad se mantienen prácticamente inalterados desde que escribimos La incómoda verdad sobre la enfermedad de Alzheimer hace ahora algo más de dos años. En lo que sigue repasamos brevemente el estado de algunas cuestiones.

La enfermedad de Alzheimer es la causa de dos tercios de los casos de demencia y la padecen una de cada 200 personas. Conforme la población mundial crece y envejece encontrar una cura, una vacuna, algo que la ralentice se está convirtiendo en una necesidad imperiosa, no ya para las personas que la padezcan sino para la sociedad en su conjunto. Las consecuencias que la aparición de un caso tiene en el entorno familiar, más allá de lo emocional, en lo económico, tiene efectos multiplicados en las arcas estatales.

Ensayo y error

El mes pasado Eli Lilly , Pfizer y Johnson & Johnson paralizaron los ensayos de terapias en las que se tenían puestas muchas esperanzas, tras fracasar en la tercera fase de las pruebas clínicas. Los fármacos, que se centraban en la reducción de la beta amiloide, no paliaban los síntomas de la enfermedad.

A los remedios naturales no les va mejor cuando se hacen ensayos serios. El pasado 6 de septiembre se publicaban los resultados de un estudio [*] comenzado hace 10 años sobre los efectos en la prevención del alzhéimer del extracto de ginkgo biloba. Las conclusiones no pueden ser más claras: el uso a largo plazo del extracto estandarizado tuvo efectos indiscernibles del placebo, es decir, no hace nada.

Lo que debemos tener claro es que si de todos estos ensayos, y hay aproximadamente 150 que están en ejecución en el mundo, alguno funcionase, sería como la flauta que hizo sonar el burro. Debido al atractivo económico que supone encontrar un remedio, las empresas farmacéuticas están gastando su dinero en investigaciones guiadas por el ensayo y error. Sus departamentos de márketing recuperan parte de la inversión publicitando estos ensayos, que son amplificados por los medios de comunicación, convirtiéndolos en imagen de marca.

Démonos cuenta de que no sabemos si las placas de beta amiloide son las causantes de la enfermedad, lo que no parece lógico (la causa sería lo que provoca su aparición), o son sólo un síntoma. Tampoco está claro el papel de las proteínas tau. En definitiva, desconocemos el mecanismo que desencadena la enfermedad en primer lugar y el que regula su evolución posterior. Así de claro y contundente. Esto explica que los fármacos existentes palíen los síntomas de la enfermedad pero no consigan detener su avance.

La clave: la investigación básica

Y esto, ¿por qué? Se preguntan muchos. ¿Por qué la ciencia no encuentra una solución rápidamente como en las películas? Por los intereses de las farmacéuticas dirán algunos. Y no, esto no es así. Desde el punto de vista económico lo rentable es conseguir una cura, para que cada vez más gente la consuma, viva más y consuma más medicamentos. El verdadero motivo es la naturaleza de la propia enfermedad.

Las características de la enfermedad de Alzheimer hacen que sea un enigma muy difícil de resolver. Y el principal obstáculo es el tiempo, ya que es casi imposible de reproducir en modelos de laboratorio, lo que aceleraría muchísimo la investigación de ser posible. Por lo tanto hay que estudiarla en humanos, donde progresa muy lentamente. Tan lentamente que puede haber empezado 15 años antes de que la persona que la sufre presente síntomas. Yo podría tener alzhéimer ahora mismo, ya que he entrado en la zona de riesgo (45), y no tener ninguna señal de ello; con todo, la edad típica para presentar síntomas ronda los 70. Así que, cuando estas personas están disponibles para la investigación clínica, los investigadores sólo pueden examinar una enfermedad que lleva en evolución más de una década, y que ya ha provocado la muerte de neuronas.

Por eso el desarrollo de diagnósticos precoces es tan importante. Recientemente se han publicado ensayos muy sencillos relacionados con la movilidad de ojos o la calidad del sueño que podrían ser utilizados como pruebas precoces de la aparición de la enfermedad.

Pero la cosa es aún más complicada. Existe un porcentaje pequeño de personas, más mujeres que varones, en el que existe una predisposición genética al Alzheimer (ya hablamos de esto en el artículo de 2010). Una historia familiar en la que la enfermedad esté presente dispara el riesgo. Pero no está claro cuál es el papel de la genética en general en la aparición de la enfermedad.

Ni siquiera sabemos si existe más de un tipo de alzhéimer. Hay estudios que sugieren que las medidas higiénicas preventivas (vida saludable e intelectualmente activa) retrasarían la aparición del alzhéimer, pero sólo en personas que no tengan predisposición genética.

Visto lo anterior, se plantean dos posibles evoluciones de los acontecimientos: o bien una farmacéutica encuentra la piedra filosofal por casualidad, o bien se desaniman y deciden que ya no pueden seguir gastando burradas de dinero a ciegas. La probabilidad, me temo, juega a favor de la segunda. Esto significa que sólo la investigación básica podrá encontrar la clave a la solución al problema. Lo que lo reduce a una cuestión temporal y económica, en la que los gobiernos, como principales concernidos, tienen mucho que decir. A los que tenemos el riesgo genético sólo nos queda esperar que no empleen demasiadas décadas.



[*] Vellas B, Coley N, Ousset PJ, Berrut G, Dartigues JF, Dubois B, Grandjean H, Pasquier F, Piette F, Robert P, Touchon J, Garnier P, Mathiex-Fortunet H, Andrieu S, & for the GuidAge Study Group (2012). Long-term use of standardised ginkgo biloba extract for the prevention of Alzheimer's disease (GuidAge): a randomised placebo-controlled trial. Lancet neurology PMID: 22959217

jueves, 20 de septiembre de 2012

Amazings Bilbao 2012, ¡allá vamos!


Al igual que el año pasado, la semana que viene estaré de nuevo disfrutando de la compañía de lo más granado de la divulgación científica del país, junto a los lectores que se quieran acercar, en Amazings Bilbao 2012. El programa es absolutamente espectacular por lo completo y variado. Afortunadamente, la televisión pública vasca ETB, cubrirá el evento, por lo que podréis seguirlo en streaming.

Toda la información sobre el programa, consejos y recomendaciones la podéis encontrar aquí.

Yo intervendré el sábado a las 12:10 con Agua, azucarillos y el ambiente. No será espectacular en la forma, pero espero eliminar alguna idea preconcebida y hacer pensar a más de uno. 
Posteriormente participaré en la mesa de astrobiología a las 12:40.

¡Nos vemos en Bilbao!

miércoles, 19 de septiembre de 2012

Efecto Pigmalión: expectativas, lenguaje no verbal y cociente intelectual


Ovidio cuenta en sus "Las metamorfosis" la historia de un orfebre chipriota llamado Pigmalión que esculpe en marfil una estatua de mujer tan realista y bella que se enamora de ella. Con motivo de la festividad de Venus, Pigmalión hace una ofrenda a la diosa rogándole que dé vida a su estatua. La diosa concede el deseo y Pigmalión y la que era su estatua se casan.

En 1912 George Bernard Shaw tituló Pigmalión su obra de teatro en la que se narra cómo el profesor Henry Higgins modeló a la florista barriobajera Eliza Doolittle hasta hacerla pasar por una duquesa en la recepción de un embajador, enamorándose de ella en el proceso. La historia se hizo mundialmente famosa con la adaptación al cine en forma de musical titulada My Fair Lady, con Rex Harrison como Higgins y Audrey Hepburn como Doolittle.

Tomando el nombre de estos antecedentes, el llamado efecto Pigmalión en psicología describe el hecho de que la expectativas de un superior, léase progenitor, profesor, entrenador o jefe, tienen sobre el rendimiento de una persona a su cargo, esto es, hijo, alumno, deportista o subordinado. Este efecto está relacionado con otro, el efecto placebo, y como éste, se traduce en multitud de pequeños actos inconscientes que alteran nuestro comportamiento habitual.

El primer psicólogo que estudió de forma sistemática este efecto fue Robert Rosenthal quien, en 1964, siendo profesor de la Universidad de Harvard, realizó un experimento en una escuela elemental al sur de San Francisco (California). La idea no podía ser más simple: ¿qué pasaría si se les dijese a los profesores que ciertos niños de su clase estaban destinados al éxito académico?

Para conseguir que los profesores le creyeran, Rosenthal tomó un test de inteligencia estándar, el FTGA, pero en la cubierta de cada copia puso un nuevo nombre, algo más pretencioso, “Harvard Test of Inflicted Acquisition”.

Rosenthal les dijo a los profesores que este especialísimo test de Harvard tenía la peculiaridad de ser capaz de predecir qué niños estaban a punto de ser muy especiales, es decir, qué niños estaban a punto de experimentar un aumento espectacular en su cociente intelectual (CI).

Una vez que los chavales hicieron el test, Rosenthal escogió de cada clase a varios niños completamente al azar. No había nada en absoluto que distinguiese a estos niños de los demás, pero les dijo a los profesores que los resultados del test indicaban que estaban apunto de florecer intelectualmente.

El seguimiento de los niños durante los dos años siguientes puso de manifiesto que las expectativas de los profesores realmente estaban afectando a los niños. Si los profesores esperaban que los niños tuviesen mayor CI, esos niños ganaron más CI.

¿Pero cómo pueden las expectativas influir en el CI?

Investigaciones posteriores del mismo Rosenthal y otros pusieron de manifiesto que las expectativas afectan a las interacciones cotidianas con los niños de mil formas diferentes. Las más consistentes alteraciones del comportamiento de los profesores que esperan mucho de un alumno serían, entre otras, que les dan:

· más tiempo para responder
· retroalimentación mucho más específica
· reconocimiento no verbal: los tocan (codo, hombro), asienten más con la cabeza cuando los alumnos hablan y les sonríen más.

Vemos que no es magia ni telepatía. Son las herramientas con las que nos comunicamos sin palabras e inconscientemente, todos los días y con todo el mundo sin darnos cuenta. La cuestión es: sabiendo que esto es así, ¿puede un influenciador alterar sus expectativas de manera creíble? Dicho de otra manera, habida cuenta que el efecto actúa por vías inconscientes, ¿podemos llegar a simular creíblemente que “creemos en alguien” con objeto de alterar su rendimiento (para mejor o para peor)?



lunes, 17 de septiembre de 2012

Ciencia, arte y religión: consideraciones sobre la generación de conocimiento real en las humanidades.



Empecemos definiendo “ciencia” como cualquier estudio que emplee el método científico. Démonos cuenta de que esta definición permite incorporar algunas disciplinas consideradas de humanidades si se despojan de posibles componentes subjetivos. Así, la historia, la lingüística o la antropología pueden considerarse ciencias según esta definición, así como la mayor parte de la psicología, si bien no todo lo que se publica sobre ellas pueda ser incluído debido a la ausencia de la objetividad necesaria y, en ocasiones, al exceso de especulación sin base empírica.

En esta línea llamaremos “arte” a todas la humanidades que por dejación o convicción no emplean el método científico. En este apartado encontraremos al arte propiamente dicho, y a buena parte de las publicaciones de “ciencias” sociales, antropológicas, históricas, filológicas y filosóficas. Nos permitimos llamar la atención al hecho de que las llamadas pseudociencias entran en esta categoría, desde la astrología a la homeopatía, pasando por la nigromancia. En lo que sigue “ciencia” y “arte” corresponden a estas definiciones y no a otras.

La interacción de ciencia y arte se produce de forma cotidiana. Desde el punto de vista de adquisión de conocimiento objetivo la primera, quiérase o no, informa a la segunda, mientras que ésta perturba a la primera a la hora de conseguir sus objetivos. De hecho, el método científico tiene entre dichos objetivos luchar contra el aumento de entropía que supone el arte.

Para poder aprehender qué queremos decir con el párrafo anterior debemos responder a una pregunta: ¿qué diferencia fundamental más allá de la metodológica separa a ciencia y arte? Y quizás interese también encontrar respuesta a una segunda: ¿existe algún ámbito en el que convivan ciencia y arte?

Las teorías que formula la ciencia tienen como objeto proporcionar descripciones del mundo que no dependan de ninguna perspectiva concreta ni de ningún observador en particular. Si bien, en la práctica, no consigue abstraerse completamente de las percepciones y formas de pensar característicamente humanas, su éxito o no en el cumplimiento de su objeto tiene un contraste externo, la propia naturaleza, a la que le importan poco los sentimientos humanos.

El arte, por su parte, trabaja con visiones del mundo que se expresan de forma concreta (obra de arte), adaptadas precisamente a las facultades sensoriales y sensibilidades humanas. El éxito de las obras de arte se mide por su capacidad de evocar respuestas a lo largo del tiempo en los humanos que las perciben.

La ciencia corrige sistemáticamente los errores del sentido común. Al arte no le importa, en principio, que estos errores lo sean, ya que el arte “vive” en el sentido común, en las respuestas primarias de los humanos. De hecho, una argumentación recurrente de los valedores del arte como fuente de conocimiento es que las correcciones radicales del sentido común que proporciona la ciencia (como, por ejemplo, el conocimiento de que el ordenador que estás usando es fundamentalmente espacio vacío en el que hay partículas que se mueven a toda velocidad y que si no colapsa es por el principio de exclusión de Pauli), este tipo de correcciones, decíamos, son interpretadas como excesivas racionalizaciones de la realidad que se apartan de las “verdades del sentido común”, lo que les hace perder la aprehensión de “toda la verdad” (los entrecomillados proceden de un texto de Anthony O'Hear) . El siguiente paso del arte es afirmar que ese acceso a la verdad completa lo proporciona él. Lo que se olvida en este caso es que, por una parte, la ciencia tiene distintos niveles de abstracción, no sólo uno, y, por otra, que si admitimos que la ciencia no puede explicar toda la verdad, de ahí no se deduce que el arte pueda.

Religión: las aspiraciones de la ciencia con los métodos del arte

Hay una actividad humana donde ambas aproximaciones al mundo conviven y donde se muestra claramente lo que aporta cada una. Hablamos de la religión.

La religión comparte con la ciencia el objetivo de explicar cómo el mundo es en sí mismo, no cómo es para nosotros. Pero, a diferencia de la ciencia, y más próxima a una obra de arte, describe al universo como dotado de un propósito, con voluntad y personalidad, revelando las intenciones de un ser (o conjunto de seres) trascendentes. Al presuponer un ser (o conjunto de seres) trascendente, la religión evita la posibilidad de refutación empírica directa por la realización de experimentos científicos. Incluso las catástrofes y el sufrimiento encuentran acomodo como expresión de una voluntad trascendente que, por esta misma característica, no se puede comprender totalmente. La misma postura apriorística la encontramos en el arte.

Efectivamente, la religión, concebida adecuadamente, esto es, desde el punto de vista teológico y no en sus manifestaciones culturales, se basa en experiencias de significado y valor cuya expresión y exploración son propias del arte. Y esto es así, primero, porque la ciencia no se manifiesta sobre el sentido del universo y, segundo, porque a la persona religiosa se le hace muy difícil vivir asumiendo que sus valores son sólo proyecciones de un cerebro humano fruto de la evolución.

Sólo el método científico es aceptable como generador de conocimiento real

Mantenemos que sólo una metodología científica es intelectualmente aceptable como generadora de conocimiento objetivo. La parte de las humanidades más especulativa, la filosofía, si ha de ser algo más que juegos florales, ve reducidos sus problemas a problemas científicos, aunque los aborde con herramientas diferentes a las de las ciencias experimentales, subordinando el valor de verdad de sus conclusiones a los resultados de experimentos y observaciones. Finalmente, sólo las humanidades que aspiran a aportar conocimiento genuino adoptan el método científico. El resto, como el arte, medran en la parte más primitiva del ser humano. Lo que en sí no es bueno ni malo; simplemente, es.

Esta entrada es una participación de Experientia docet en la I Edición del Carnaval de Humanidades

jueves, 13 de septiembre de 2012

Receptores nucleares y formación de recuerdos a largo plazo.

Foto de Nick Brandt

¿Cómo se forman los recuerdos a largo plazo?¿Cómo se consolida la memoria?¿Cómo pasa lo que vivimos en un momento a ser un recuerdo imborrable? Se sabe que el tiempo de consolidación de los recuerdos depende de la transcripción de determinados proteínas. Ahora, un grupo de investigadores encabezado por Joshua Hawk, de la Universidad de Pensilvania, ha puesto de manifiesto que una familia de factores de transcripción llamada Nr4a es clave en la formación de la memoria a largo plazo y ha detectado posibles dianas terapéuticas que permitan el desarrollo de nuevos fármacos que la mejoren. El estudio se publica en el Journal of Clinical Investigation.

La investigación se centró en un grupo de proteínas conocidas como receptores nucleares, que se sabe que están implicadas en la regulación de varias funciones biológicas, incluida la formación de la memoria. Los receptores nucleares son una clase de factores de transcripción, esto es, proteínas que pueden unirse al ADN y regular la actividad de otros genes. Su papel regulador podría ser significativo en la formación de la memoria, ya que se requiere transcripción genética para convertir los recuerdos a corto plazo en perdurables mediante el refuerzo de las sinapsis, las conexiones interneuronales.

Para identificar el papel de este tipo de factores de transcripción en la formación de recuerdos, el equipo de investigación entrenó ratones usando un método estándar para crear recuerdos de lugares y acontecimientos, en el que los animales aprenden a asociar un contexto concreto o un tono determinado con una experiencia específica. Las asociaciones con un lugar o contexto se cree que se almacenan en el hipocampo, mientras que los recuerdos asociados con una señal (tono) lo harían en la amígdala.

Durante las 24 horas siguientes tras el entrenamiento inicial de los ratones, los investigadores comprobaron los patrones de expresión de los genes correspondientes a los 49 receptores nucleares. Encontraron que 13 presentaban un incremento en la expresión en el hipocampo en las primeras dos horas después del entrenamiento. Dentro de este grupo están los tres miembros de una familia de receptores nucleares llamada Nr4a. Se sabía que los genes Nr4a incrementan la expresión tras el uso de un tipo de fármacos para la mejora de la memoria conocidos como inhibidores de la histona deacetilasa (IHDA).

A continuación los investigadores crearon ratones transgénicos en los que bloquearon selectivamente la actividad de los genes Nr4a en diferentes áreas cerebrales. Tras el entrenamiento y comprobación posterior, Hawk et al. encontraron que estos ratones transgénicos recordaban peor la localización (recuerdos en el hipocampo) que los ratones normales. Por el contrario la respuesta a la señal aprendida (recuerdos en la amígdala) se mantenía al mismo nivel que la de los ratones normales.

Quizás convenga en este punto hacer una pequeña digresión. Si los ratones transgénicos tenían problemas de contextualización eso quiere decir que había algo en el hipocampo que no funcionaba correctamente. Es el tipo de problema cognitivo que se encuentra en el Alzheimer y en algunos tipos de esquizofrenia. Al igual que en estos casos, los ratones transgénicos no tenían problemas con la memoria a corto plazo.

Una forma de confirmar el papel de los genes Nr4a en la formación de los recuerdos a largo plazo es mediante el uso de IHDA. El uso de este fármaco no supuso mejora alguna en los déficits de los ratones transgénicos, lo que sugiere que los IHDA actúan sobre los Nr4a para mejorar la memoria a largo plazo.

Los investigadores también buscaron moléculas que actúen aguas abajo de los Nr4a y que pudieran ser parte de la cascada de señales mediante la que estos receptores nucleares contribuyen a la formación de los recuerdos a largo plazo. Encontraron dos genes, Fosl2 y Bdnf1, que parecen ser dianas de los Nr4a y que también incrementan su expresión tras el tratamiento con IHDA.

Los tratamientos para la esquizofrenia, la depresión y otros trastornos neurológicos actúan generalmente a nivel de neurotransmisores, por lo que terminan teniendo efectos no deseables en otros sistemas. Uno de los puntos importantes de este trabajo, aparte de nuestra mejor comprensión del mecanismo de formación de recuerdos a largo plazo, es la identificación de posibles dianas terapéuticas específicas, como los genes Fosl2 y Bdnf1, que permitirían el desarrollo de fármacos más eficaces y con menos efectos secundarios.

Esta entrada es una participación de Experientia docet en la XVI Edición del Carnaval de Biología que acoge El blog falsable.

Referencia:

Joshua D. Hawk, Angie L. Bookout, Shane G. Poplawski, Morgan Bridi, Allison J. Rao, Michael E. Sulewski, Brian T. Kroener, David J. Manglesdorf, & Ted Abel (2012). NR4A nuclear receptors support memory enhancement by histone deacetylase inhibitors J Clin Invest. : 10.1172/JCI64145

martes, 11 de septiembre de 2012

Concurso ED: Sus ideas le llevaron a...



    A) Sus ideas le llevaron a una muerte violenta lejos de su hogar.
    B) Sus ideas le llevaron a publicar su trabajo no de la mejor manera.
    C) Sus ideas le llevaron a combatir a sus profesores.
    D) Sus ideas le llevaron a ser reconocido como un genio.
    E) Sus ideas le llevaron a unirse a un movimiento que buscaba la autoafirmación recalcando el carácter intuicionista del trabajo de sus miembros.
    F) Recientemente se ha presentado un trabajo en varias partes que se basa en las ideas de nuestro personaje, tanto es así que el nombre de éste aparece en el título de cada una de esas partes. Si este trabajo se comprueba que es correcto será la consagración de su autor como genio. Este autor recibió su doctorado de una universidad de la Ivy League con la misma edad que nuestro personaje el suyo.

Puntuación (máximo 100 puntos):
  • Nombre del personaje: 50 puntos
  • Descripción correcta de A: 10 puntos
  • Descripción correcta de B: 10 puntos
  • Descripción correcta de E: 15 puntos
  • Nombre del autor en F: 15 puntos
  • Intento fallido al dar el nombre del personaje: -25 puntos
  • Por cada pista que se publique -1/5 de puntos
ADVERTENCIA: Este concurso es muy difícil. Hay que pensar y relacionar indicios antes de buscar en Google.

Han resuelto:

1. Amarashiki 100 puntos
2. Moigaren 100 puntos
3. Dani Torregrosa 50 puntos (50-25+10+15)

lunes, 10 de septiembre de 2012

Al menos un 4% adicional del genoma tiene selección estabilizadora en humanos.


¿Qué nos diferencia a los humanos modernos de otras especies? Parece una pregunta un poco estúpida, por lo evidente que puede parecer la respuesta. Sin embargo, si preguntamos ¿qué parte del genoma humano es exclusiva y característicamente humana? La respuesta ya no es tan obvia. El 5% del genoma humano se conserva entre especies; un 4% adicional, al menos, estaría sometido a una selección específica de la especie. 

Al resultado anterior es al que han llegado Lucas Ward y Manolis Kellis, ambos del Instituto de Tecnología de Massachusetts (EE.UU.), en un artículo aparecido en Science. Los dos investigadores usaron datos de ENCODE para identificar partes del genoma que realmente hace cosas y datos del Proyecto 1000 Genomas, que ha estudiado variaciones en el genoma humano en cientos de personas, para descubrir cuantos de estos elementos funcionales varían de persona a persona. En concreto se fijaron en señales que indiquen que la selección natural está manteniendo un elemento. La lógica es simple: si algo es evolutivamente importante entonces las variaciones aleatorias en su secuencia de ADN serán eliminadas lentamente de la población, manteniéndolo funcional en un proceso conocido como selección estabilizadora.

Los investigadores encontraron que, además del 5% de ADN humano que se conserva entre especies de mamíferos, existe otra porción substancialmente mayor que es bioquímicamente activa. Sin embargo, al menos un 4% adicional del ADN humano parece que es característicamente humano en el sentido de que está sujeto a selección estabilizadora en humanos pero no en otros mamíferos. Mucho de este ADN característico está implicado en regular la actividad de los genes, por ejemplo, controlando cuánto se produce de una proteína en vez de alterar la naturaleza de la proteína misma.

Este hallazgo está en sintonía con la hipótesis más aceptada actualmente de que el cambio evolutivo está más relacionado con los elementos reguladores más que con la estructura de proteínas. Los investigadores también encontraron que segmentos largos no codificantes que no se conservan en otros mamíferos están de hecho muy constreñidos en su evolución, lo que sugiere que tendrían funciones específicamente humanas.

Algunas de las áreas identificadas como concretamente humanas son la regulación de los conos de la retina (que nos permiten ver en color) y la regulación del crecimiento de las células nerviosas. Estos procesos evolucionaron rápidamente en los ancestros primates del Homo sapiens pero ahora están sometidos a una fuerte selección estabilizadora para mantener sus funciones beneficiosas.

Independientemente de estos primeros resultados, los autores han creado un poderosa herramienta para investigar en detalle los que nos hace humanos a los humanos.


Esta entrada es una participación de Experientia docet en la XVI Edición del Carnaval de Biología que alberga El blog falsable.

Referencia:

Ward LD, & Kellis M (2012). Evidence of Abundant Purifying Selection in Humans for Recently Acquired Regulatory Functions. Science (New York, N.Y.) PMID: 22956687

miércoles, 5 de septiembre de 2012

Metano y cambio climático exponencial.


Cuatro estudios publicados en los últimos días se han centrado en el metano en la Tierra y en su emisión a la atmósfera. El primero explica la evolución del metano atmosférico en las últimas décadas, en otro se da una explicación a la producción de metano en los océanos y en los otros dos se constata la presencia de grandes cantidades de metano bajo los hielos polares, metano que ya se estaría liberando a la atmósfera y cuyo ritmo podría incrementarse en los próximos años con consecuencias potencialmente desastrosas.

Antes de nada veamos la importancia del metano para el cambio climático con cuatro números tomados del IPCC Fourth Assesment Report. Todos solemos asociar el calentamiento global al dióxido de carbono como responsable del efecto invernadero, y esto es correcto pero no es todo el cuadro. En un período de 100 años, a igualdad de masa emitida a la atmósfera, el metano tiene 25 veces la capacidad del dióxido de carbono para afectar al calentamiento global.

Maticemos. El metano tiene efectos grandes en períodos cortos de tiempo (se degrada en contacto con el oxígeno y el ozono y su vida es de 8,4 años en la atmósfera, contribuyendo de paso a la desaparición de la capa de este último), mientras que el dióxido de carbono tiene un efecto pequeño durante largos períodos de tiempo (más de 100 años). Si reducimos el tiempo considerado a 20 años, a igualdad de masa emitida, el metano tiene 72 veces más efecto que el dióxido de carbono. Vemos así las consecuencias a corto plazo que la emisión de grandes cantidades de metano a la atmósfera puede tener.

La concentración de metano atmosférico se ha incrementado alrededor del 150% desde 1750 y este incremento representa el 20% de todo el efecto radiativo de todos los gases con efecto invernadero a nivel global, excluido el vapor de agua.

Sin embargo, entre 1980 y 2005 las cantidades de metano en la atmósfera se estabilizaron. ¿Cómo era posible? Un artículo [1] publicado en Nature parece confirmar una de las hipótesis posibles. El estudio, encabezado Isobel Simpson, de la Universidad de California en Irvine (EE.UU.), indicaría que el 70% del descenso, hasta 21 millones de toneladas al año, se debía al mejor control en las emisiones ocasionadas por la exploración petrolífera y del aprovechamiento del metano como recurso energético.

Sin embargo, desde 2007 los niveles vuelven a subir. ¿Por qué?

Los océanos producen un 4% del metano emitido a la atmósfera.

El que el océano produzca metano es paradójico. El agua del mar tanto por sí misma como por el oxígeno disuelto que contiene tendría que tener la capacidad de oxidar el metano. La cantidad de metano que tendría que estar produciéndose es mucho más alta de la que sería producida por microorganismos anaerobios metanogénicos para que tanto metano pudiera escapar del mar sin oxidarse.

En 2008 se propuso un posible mecanismo para aguas en las que no hubiese cantidades significativas de fosfato. Los microbios aerobios podrían metabolizar un compuesto llamado ácido metilfosfónico (AMF) como fuente de fosfato, liberando metano como subproducto. Esto estaba muy bien y podría ser una solución a la paradoja si no hubiese sido porque no se conocía ninguna fuente natural de AMF.

Ahora un equipo de investigadores encabezado por William Metclaf, de la Universidad de Illinois en Urbana-Champaign, publica [2] en Science el descubrimiento, dicho sea de paso por casualidad, de toda una ruta biosintética para el AMF que sugiere que la molécula es común en los ambientes marinos.

Los investigadores están especializados en la búsqueda de nuevos compuestos antibióticos. Un grupos de compuestos potenciales son los ácidos fosfónicos, por lo que estaban buscando organismos que tengan la capacidad genética de producirlos. Uno de estos organismos es un arqueon marino llamado Nitrosopumilus maritimius, parte de un grupo cuyos miembros están entre los microorganismos más abundantes en las aguas marinas superficiales. Los investigadores identificaron un grupos de genes que podrían sintetizar fosfonatos. Cual no sería su sorpresa al descubrir que el producto sintetizado era AMF.

Si tenemos en cuenta que secuencias genéticas similares se encuentran en otros microorganismos marinos, hace que el AMF sea lo suficientemente abundante para dar cuenta de la producción de metano en ambientes marinos. ¿Podría un aumento de la temperatura global aumentar el número de estos microorganismos aumentando la producción de metano? No lo sabemos. Es necesario investigar más y no es una pregunta fácil de responder.

Hay metano atrapado en el hielo del Ártico. Y se está derritiendo.

En abril de 2011 aparecía, editado por Plaza y Janés, “En mares salvajes” de Javier Reverte. En este libro de viajes, escrito con la maestría habitual de Reverte, éste narra su navegación a través del mítico paso del noroeste (norte de Canadá), abierto a la navegación por la retirada de los hielos árticos desde el 2007. Desde 2010 está también abierto el paso del noreste (norte de Rusia).

En la página 346, Reverte nos cuenta lo siguiente, tras exponer las consecuencias para el entorno que el acceso al Ártico supone:

“Pero este escenario se torna casi apocalíptico si tenemos en cuenta otro hecho: en la tundra, debajo de la tierra de las islas, se cubre una capa de hielo que cubre cantidades ingentes de turba, una materia orgánica formada a lo largo de miles de años por residuos vegetales. Si el hielo subterráneo de la tundra se derrite, la turba comenzará a romperse, provocando grandes emanaciones de gas metano, lo que creará en la atmósfera un descenso de oxígeno y la extinción de numerosas especies.”

Un estudio [3] publicado en Nature, encabezado por J.E. Vonk, de la Universidad de Estocolmo (Suecia), ha estudiado el ritmo al que se está emitiendo carbono (dióxido de carbono y metano) a la atmósfera desde el permafrost siberiano, donde las temperaturas se han incrementado en varios grados más de lo previsto en los últimos años, encontrando que es del orden de 10 veces más de lo que se creía. Hablamos de la emisión de 44 millones de toneladas al año de carbono, dos tercios en forma de dióxido de carbono.

La capa de hielo del Antártico también es una fuente de metano no considerada hasta ahora.

También en Nature aparece otro artículo [4], cuya primera autora es Jemma Wadham, de la Universidad de Bristol (Reino Unido), en el que se sugiere que la capa de hielo antártica podría esconder 20 mil millones de toneladas de carbono orgánico. Esto viene a ser unas 10 veces la cantidad que se estima que hay en el permafrost ártico. Pero la cosa no queda ahí. En el estudio se pone de manifiesto que estos entornos debajo del hielo son biológicamente activos, es decir, que este carbono orgánico se está metabolizando y de aparecer lo haría en forma de dióxido de carbono y metano.

Una simulación numérica de la producción de metano por parte de microorganismos metanogénicos indicaría que habría hasta 400 mil millones de toneladas de metano atrapadas bajo el hielo.

¿Nos damos cuenta de lo que esto significa de seguir aumentando la temperatura global?

Esta entrada es una participación de Experientia docet en la XVII Edición del Carnaval de Química que acoge Un geólogo en apuros.

Referencias:

[1] Simpson IJ, Sulbaek Andersen MP, Meinardi S, Bruhwiler L, Blake NJ, Helmig D, Rowland FS, & Blake DR (2012). Long-term decline of global atmospheric ethane concentrations and implications for methane. Nature, 488 (7412), 490-4 PMID: 22914166

[2] Metcalf WW, Griffin BM, Cicchillo RM, Gao J, Janga SC, Cooke HA, Circello BT, Evans BS, Martens-Habbena W, Stahl DA, & van der Donk WA (2012). Synthesis of methylphosphonic acid by marine microbes: a source for methane in the aerobic ocean. Science (New York, N.Y.), 337 (6098), 1104-7 PMID: 22936780

[3] Vonk JE, Sánchez-García L, van Dongen BE, Alling V, Kosmach D, Charkin A, Semiletov IP, Dudarev OV, Shakhova N, Roos P, Eglinton TI, Andersson A, & Gustafsson O (2012). Activation of old carbon by erosion of coastal and subsea permafrost in Arctic Siberia. Nature PMID: 22932271

[4] Wadham JL, Arndt S, Tulaczyk S, Stibal M, Tranter M, Telling J, Lis GP, Lawson E, Ridgwell A, Dubnick A, Sharp MJ, Anesio AM, & Butler CE (2012). Potential methane reservoirs beneath Antarctica. Nature, 488 (7413), 633-7 PMID: 22932387



martes, 4 de septiembre de 2012

Chemical Curiosities: el encanto de la química (vídeo)

Esta charla de Chris Bishop organizada por la Royal Institution en la Universidad de Cambridge, en un auditorio lleno de niños acompañados por sus padres, es una maravillosa presentación de los principios de la química a base de experimentos llamativos y espectaculares. Bishop trata a su audiencia como seres inteligentes y no evita términos como entropía, energía, equilibrio químico o el nombre de las sustancias que usa. La cara fascinada de los niños y la de asombro de sus padres revelan que, cuando se explica bien y se ilustra mejor, los conceptos más difíciles puede entenderlos intuitivamente cualquiera.

Entre otras cosas trata sobre:

- Indicadores y reacciones que producen cambios de color.
- Cambios de estado y reacciones que los producen.
- Energía y formas de liberación de energía por las reacciones.
- Distintos tipos de extintores y cómo pueden "avivar" una reacción.
- Equilibrio químico.
- Reacciones cíclicas
- Superconductividad

Es una charla de más de una hora de la que los profesores pueden extraer experimentos sencillos y espectaculares que harán las delicias de sus alumnos.

Está en inglés, pero Bishop habla despacio y tiene dicción y enunciación perfectas. Si no entiendes lo que dice siempre puedes verlo e intentar averiguar qué está ocurriendo: sería un magnífico ejercicio.




Esta entrada es una participación de Experientia docet en la XVII Edición del Carnaval de Química que acoge Un geólogo en apuros


lunes, 3 de septiembre de 2012

Conclusiones de la Encuesta ED: nuestra consistencia puede matarnos.



Suelo repetir que los libros de técnicas de venta son una magnífica ventana a los sesgos cognitivos que nos dominan. También suelo mencionar a menudo que nos creemos racionales, pero que muchas de nuestras decisiones vienen determinadas por estos sesgos, lo que en el lenguaje corriente se suele llamar prejuicios o identificar como fobias. La lectura del artículo de la Smithsonian Magazine al que me refiero más abajo, al que llegué de casualidad, me hizo plantearme esta encuesta (acientífica completamente) para comprobar uno de los sesgos cognitivos más arraigados, el que llamaremos de compromiso y consistencia.

¿Qué le parece?

¿Cuántas veces has escuchado a un vendedor hacerte esta pregunta después de detallarte las maravillosas ventajas de su producto o servicio? Está usando una vieja técnica que se llama “pie en la puerta”. En muchos casos lo habitual es responder con un aparentemente inocuo “estupendo” o “muy bien, claro” (ya que las ventajas son innegables, si fuesen ciertas, no tuviesen un coste y a ti te hiciesen falta) y ya está conseguida media venta: el pie está en la puerta. Una variante es preguntar “es una gran ventaja, ¿verdad?” o similar, para ir “acumulando síes”.

En nuestro fuero más interno deseamos ser y aparecer ante los demás como personas consistentes con lo que ya hemos hecho. Una vez que hemos adoptado una decisión o tomado una postura, tenemos que afrontar presiones tanto personales como interpersonales para comportarnos consistentemente con ese compromiso. Una vez que el vendedor haya conseguido que digas que la fregona, limpiahogar, descalcificador o tarjeta de crédito te parecen “estupendos”, tu deseo de ser consistente te llevará a comprarlo, en un buen número de casos.

Este sesgo tiene su origen, como muchos, en la necesidad de ahorrar tiempo y recursos. Una vez que nos hemos decidido por algo, la consistencia nos permite darnos un lujo muy atractivo: ya no tenemos que pensar profundamente sobre el asunto nunca más. Nos refugiaremos en los muros de la consistencia para protegernos de los problemas que acarrea pensar.

Se puede escribir un libro sobre el tema. Simplemente apuntamos que los pequeños compromisos pueden usarse para manipular la imagen propia de una persona.

La hipótesis

Si lo anterior es cierto, lo que está más que comprobado, una persona enfrentada a una elección entre proposiciones a priori de igual valor de verdad elegirá aquella o aquellas que impliquen consistencia, primero con su forma de proceder y, segundo, con su imagen de sí mismo.

El diseño

Cuando leímos el artículo de la Smithsonian MagazineThe Ten Most Disturbing Scientific Discoveries” se nos ocurrió la idea. Tenemos 10 afirmaciones con exactamente el mismo valor de verdad, variadas y en las que no todo el mundo es experto.

Planteamos pues una pregunta pidiendo que se señalasen las falsas. Ello implica un esfuerzo extra de razonamiento comparado con si se pide que se identifique una proposición verdadera, si a esto añadimos la verosimilitud de todas (después de todo, todas son ciertas), es más fácil que nuestros prejuicios cognitivos entren en acción. Démonos cuenta de que no había opciones de “todas verdaderas” o “todas falsas”, forzando a elegir.

En las breves instrucciones había más presión cognitiva, insinuando que, como mucho, había tres falsas y solicitando que no se reflexionase demasiado.

Los resultados

Un total de 932 personas han emitido un total de 2252 votos. Esto quiere decir que cada participante ha emitido en promedio 2,42 votos, de acuerdo con las instrucciones.

Si los votos se hubiesen emitido al azar cada opción habría recibido 225 votos. Podemos clasificar cada opción en tres categorías:

  • significativamente menos votos que el azar
  • en torno a los votos del azar
  • significativamente más votos que el azar

Para nuestro experimento sólo nos interesa esta última categoría, es decir, aquellas afirmaciones que más gente ha considerado falsas. Son dos, a saber:

· “Las cosas que más te gusta comer son malas para tu salud” que la ha votado el 50% de los participantes. Y
· “Los microorganismos nos están ganando la guerra” que ha votado el 46% de los participantes.

Las conclusiones

Como es obvio esto es una encuesta no científica y, además, con una sola pregunta, por lo que las conclusiones hay que tomarlas con mucho escepticismo.

De todas las afirmaciones que se recogen en la pregunta las únicas dos que implicarían un cambio radical en nuestro comportamiento de ser ciertas son, precisamente, las dos que más participantes han votado como falsas. Del resto, sólo las ecológicas (extinciones y cambio climático) podrían implicar un cambio parecido, pero la presentación de las afirmaciones, como algo inevitable a corto, previenen implicaciones personales para muchos.

Los resultados son indiciarios de que la hipótesis es correcta. Hemos asumido que nuestra alimentación no es perjudicial para la salud y que tenemos las enfermedades a raya, por lo que no tenemos que cambiar ni nuestros hábitos de comida, ni nuestras pautas higiénicas, ni el uso que damos a los medicamentos. Nuestra consistencia con estas ideas nos hace votar como falsas ideas que, objetivamente son ciertas.

Podríamos extendernos más y entrar en más sutilezas, pero para eso están los comentarios. Gracias a todos por participar.