Mostrando entradas con la etiqueta Ensayo. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ensayo. Mostrar todas las entradas

viernes, 23 de agosto de 2013

Los monos mecanógrafos contra la evolución


La extrapolación de conceptos matemáticos (o físicos) a la biología es una ocupación favorita de los grupos que niegan la evolución, eso sí, tomando algunos aspectos y desechando otros de lo que la biología tiene que decir. Una de esas extrapolaciones tiene que ver con el uso de monos mecanógrafos para demostrar que la evolución es falsa. En lo que sigue expondremos este argumento y veremos que los que lo emplean pasan por alto que los monos usan en realidad procesadores de texto, a nivel avanzado además.

Continúa leyendo en el Cuaderno de Cultura Científica

jueves, 25 de abril de 2013

Cuando el amarillismo no es necesario: la bacteria de las heces de Materia que desafía a los amos del petróleo


Estos días, desde su aparición el pasado día 22, ha aparecido varias veces por mi cronología de Twitter una noticia publicada originalmente en Materia titulada “Una bacteria que vive entre heces desafía a los amos del petróleo” firmada por Manuel Ansede y que ha sido recogida por diversos medios como, por ejemplo, El Economista. La aparición en Twitter se debía o bien a que a alguien le parecía un gran logro, revolucionario, o a que a alguien no le terminaba de cuadrar. En todas las ocasiones he dejado clara mi opinión sobre ella: grandilocuente, amarillista, presta atención a detalles sin importancia (heces, vertidos en Níger) y no entra en otros más importantes (impacto medioambiental y económico) y sólo menciona un genérico "múltiples obstáculos", fácilmente interpretable por los conspiranoicos como referidos a los puestos por "los amos del petróleo" asaz desafiados.

Estaba considerando la posibilidad de escribir sobre el asunto cuando me he encontrado con un artículo en la Smithsonian Magazine de Joseph Stromberg que es, posiblemente, lo más cercano a la perfección que un químico industrial como yo puede pedir a un medio periodístico. Lo que sigue es una traducción del mismo, empezando con el titular; en negrita, algunas ideas-fuerza mías. Dejo al amable lector que saque sus conclusiones.

Post scriptum: José Cuesta (@inerciacreativa) nos señala que algo de esto ya ha aparecido en documentales de la BBC. ¿Y cómo es posible si este artículo apareció publicado el 17 de abril de este año? Pues muy fácil, porque otro equipo de Berkeley hizo algo similar en 2010. La principal diferencia estaba en el sustrato, en vez de ácidos grasos, celulosa. Se puede leer sobre este estudio aquí y aquí. A este respecto es interesante hacer notar que este resultado se publicó en Nature, fue financiado por Chevron, pero que la expansión de la planta piloto anunciada, curiosamente, también el 17 de abril, es para la producción de n-butanol.



Una bacteria E. coli modificada genéticamente ya puede sintetizar combustible diésel.

Durante las últimas décadas los investigadores han desarrollado biocombustibles a partir de una llamativa variedad de organismos (soja, maíz, algas, arroz e incluso hongos). Sin embargo, ya sea en la forma de etanol o de biodiésel, todos estos biocombustibles sufren de la misma limitación: han de ser refinados y mezclados con grandes cantidades de combustibles convencionales basados en el petróleo para que funcionen en los motores actuales.

Si bien este no es en absoluto el único problema actual de los biocombustibles, un nuevo enfoque de un grupo de investigadores de la Universidad de Exeter (Reino Unido) parece que podría resolver al menos este inconveniente en concreto de un plumazo. En un artículo publicado en los Proceedings of the National Academy of Sciences el equipo explica que ha modificado genéticamente una bacteria E. coli para producir moléculas que son intercambiables con las que están presentes en los combustibles diésel que ya se venden comercialmente. Los productos de esta bacteria, si se generasen a gran escala, podrían teóricamente ir directamente a los millones de motores de coches y camiones que usan diésel a nivel mundial, sin la necesidad de ser mezclado con diésel basado en petróleo.

El grupo, liderado por John Love, consiguió estos resultados mezclando y encajando genes de distintas especies bacterianas e insertándolos en la E. coli usada en el experimento. Cada uno de estos genes codifica enzimas concretas, por lo que cuando los genes se insertan en la E. coli, la bacteria adquiere la capacidad de sintetizar estas enzimas. Como resultado también gana la capacidad de realizar las mismas reacciones metabólicas que esas enzimas realizan en cada una de las especies bacterianas donantes.

Seleccionando y combinando cuidadosamente reacciones metabólicas los investigadores construyeron una ruta química artificial paso a paso. Usando esta ruta la E. coli modificada genéticamente fue capaz de absorber las moléculas de grasa de un caldo con alto contenido en ácidos grasos que llenaba la placa petri en la que crecía y se reproducía, convertirlas en hidrocarburos y excretarlos como producto de desecho.

Los hidrocarburos son la base de todos los combustibles basados en el petróleo, y las moléculas concretas que han conseguido que produzca la E. coli son las mismas presentes en los combustibles diésel comerciales. Hasta ahora sólo han producido cantidades minúsculas de este biodiésel bacteriano, pero si fuesen capaces de hacer crecer estas bacterias a gran escala y extraer su producción de hidrocarburos, tendrían diésel listo para usar. Por supuesto que aún queda por ver si el combustible producido de esta manera será capaz de competir en términos de coste con el diésel convencional.

Además, la energía nunca viene de la nada, y la energía contenida en este combustible bacteriano se origina en el caldo de ácidos grasos en el que creció la bacteria. Como resultado, dependiendo de la fuente de estos ácidos grasos, este nuevo combustible podría ser objeto de algunas de las mismas críticas que se hacen a los biocombustibles actualmente en producción.

Por ejemplo, está el argumento de que convertir alimentos (ya sea maíz, soja u otros cultivos) en combustible causa perturbaciones en el mercado de alimentos global, incrementando la volatilidad de los precios, tal y como reflejó un estudio de la ONU el año pasado. Además, si el objetivo de desarrollar nuevos combustibles es combatir el cambio climático, muchos biocombustibles se quedan enormemente cortos, a pesar de su imagen “verde”. Usar etanol hecho a partir de maíz (el biocombustible más usado en los Estados Unidos), por ejemplo, probablemente no sea mejor que quemar gasolina convencional en términos de emisión de carbono, y puede que de hecho sea peor, dada toda la energía que se emplea en el cultivo y su procesamiento para combustible.

El que este diésel a partir de bacterias sufra de estos mismos problemas depende en gran medida de la fuente de ácidos grasos que se termine usando para hacer crecer la bacteria a escala comercial: si proviene de un cultivo de potencial uso alimentario (digamos aceite de soja o de maíz) o si viene de una fuente de energía actualmente pasada por alto. Pero el nuevo enfoque ya tiene una ventaja importante: Solo los pasos necesarios para refinar otros biocombustibles para que puedan usarse en los motores ya emplean energía y generan emisiones de carbono. Eliminando estos pasos, el nuevo biodiésel podría ser una elección de combustible eficiente desde el comienzo.


Si te ha interesado puedes contribuir a la difusión de esta anotación votándola aquí.



martes, 26 de febrero de 2013

Incompletitud y medida en física cuántica (I): la física superpositiva



¿Qué distingue a la física cuántica de la física clásica o newtoniana de una forma fundamental? Esta pregunta que parece sacada de un examen de bachillerato, no tiene una respuesta tan evidente como pudiese parecer. De hecho, soy de la opinión de que la mayoría de las respuestas estándar, siendo correctas, no expresan adecuadamente lo básico, el germen del conflicto. Esto hace que muchos se aproximen a la física cuántica más como a un libro recetario, que como a un todo bien hilvanado. Veremos las tres respuestas típicas y después iremos a por el nudo gordiano.

La primera respuesta que se suele dar es la que da nombre a la teoría, a saber, la existencia de cuantos de energía, la cuantización. La energía (y más cosas, pero dejémoslo aquí), a diferencia de la física clásica, no es continua, sino que va en paquetes de tamaño determinado, llamados cuantos. ¿Es esto realmente una diferencia?¿Realmente supone por sí misma un problema para la física clásica? ¿Acaso la materia no está cuantizada en forma de átomos (por poner un límite del siglo XIX) o en partículas en general? ¿No consideraron Boltzmann, Maxwell y Gibbs que la naturaleza estaba compuesta por átomos y de esta hipótesis dedujeron ni mas ni menos que las leyes de la termodinámica macroscópica?¿Acaso durante mucho tiempo no se consideró que la luz tenía naturaleza corpuscular, empezando por Gassendi y siguiendo por el propio Newton? El hecho de que la naturaleza sea discreta, por sí mismo, pues, no es una ruptura con la física clásica. Para Planck, su “acto de desesperación” no consistió en introducir la cuantización de la energía, sino el recurrir a la estadística.

La segunda respuesta que se suele esgrimir es la dualidad onda corpúsculo. Obviamente la idea de que un cuerpo tenga una onda asociada es novedosa y no puede decirse que exista en física clásica. Pero tampoco supone un problema mayor para una concepción newtoniana del mundo. De hecho desde que newton publicase su Opticks en 1704 hasta los experimentos de Léon Foucoult en 1850, la luz era un corpúsculo o una onda según conviniese y según a quien preguntases. Esto es, desde un punto de vista pragmático, una situación análoga a la que plantea la hipótesis de de Broglie.

Un tercer argumento es el principio de incertidumbre. Estamos ante una situación parecida a la de la dualidad onda-corpúsculo. El principio de Heisenberg, al igual que la hipótesis de de Broglie, eleva ontológicamente lo que es algo que ya se maneja en la práctica en física clásica. Lo que en física newtoniana es teóricamente alcanzable ahora no se puede alcanzar: establece un límite fundamental en la precisión con la que podemos conocer los valores de pares de variables incompatibles. Para una física acostumbrada a manejarse con incertidumbres en la medida, esto tampoco supone una ruptura tan radical. Es a los filósofos a los que encanta la posibilidad de escapar al determinismo mecanicista.

Siendo estas tres respuestas, cuantización, dualidad e incertidumbre, como decíamos al comienzo, fenómenos que la teoría clásica no puede acomodar fácilmente y por lo tanto serían respuestas correctas a nuestra pregunta de inicio, sin embargo, no supondrían mayor problema para un físico experimental, por ejemplo. Estos tres aspectos, como venimos apuntando, tienen relevancia desde el punto de vista de las implicaciones filosóficas, ontológicas si se quiere, puramente teóricas.

Curiosamente, la distinción fundamental de la mecánica cuántica, lo que la separa de la física clásica, estriba en una característica matemática. Son las propiedades que cumplen las soluciones de las ecuaciones básicas que describen los sistemas físicos objeto de estudio las que diferencian a la física cuántica de la clásica. Esto no sería más que un artificio matemático si las predicciones no cuadrasen tan estupendamente bien con los experimentos. Otra cosa es su interpretación. Vamos a verlo.

Continúa leyendo en el Cuaderno de Cultura Científica

martes, 19 de febrero de 2013

Leyes, teorías y modelos (y III): ¿Existen los paradigmas?



Se está convirtiendo en un lugar común en el periodismo científico, e incluso entre los mismos científicos, hablar de paradigmas y, sobre todo, de su cambio cada vez que parece que se realiza un descubrimiento (presuntamente) importante. Pero, ¿existen los paradigmas? Y, ¿somos conscientes de los que decimos cuando hablamos de paradigmas en ciencia?

En los años ochenta del siglo pasado la por entonces primera ministra británica Margaret Thatcher se negaba, no sólo a emplear ella, sino también a aceptar en el discurso de otros como expresiones válidas los términos “clase social” y “lucha de clases”. Para ella existía un sólo grupo social, la sociedad británica, e individuos dentro de ella; hablar de clases era para Thatcher aceptar de alguna manera la visión marxista de la sociedad y, por tanto, se abría la puerta a otros planteamientos de esta filosofía. Algo de razón tenía Thatcher: si aceptas un lenguaje, una jerga si se quiere, estás aceptando una visión del mundo. No habría que ir muy lejos para encontrar ejemplos en política, pero baste citar para el lector interesado “LTI, la lengua del tercer reich” de Victor Kemplerer.

Por ello hablar de paradigmas sería aceptar, en cierta medida, primero su existencia y, segundo, la filosofía de Thomas Kuhn. Y, probablemente, para sorpresa de muchos científicos, y hasta algún periodista, no estarían de acuerdo con ella si conociesen algunas de sus implicaciones. Veámoslo muy sucintamente.

La fe de los científicos

Para Kuhn, como para Paul Feyerabend, la observación está “cargada de teoría”, lo que quiere decir que las observaciones que decidimos realizar y la importancia que les atribuimos vienen determinadas por nuestras teorías previas. Esto puede parecer inocente e inocuo, pero de aquí tanto Kuhn como Feyerabend infieren que las distintas teorías científicas son “inconmensurables”, es decir, que no existe un conjunto de juicios observacionales neutro con el que distinguir la mayor o menor “validez” de las teorías.

Como corolario, Kuhn y Feyerabend encuentran que no es posible alcanzar la verdad objetiva a nivel de observables, no digamos ya a nivel de no observables.

Con lo anterior en mente, Kuhn argumenta que la historia de la ciencia muestra una sucesión de “paradigmas”, conjuntos de supuestos y ejemplos (en el sentido de modelos) que condicionan la manera en la que los científicos solucionan los problemas y comprenden los datos y que sólo cambian en las llamadas “revoluciones científicas”, cuando los científicos cambian una fe teórica por otra.

La elección de la palabra “fe” no es casual, porque dada la inconmensurabilidad de las teorías, se deduce, y Kuhn lo hace, que no existe razón lógica estricta para el cambio de paradigma. Los argumentos en favor de un paradigma u otro serían los mismos en última instancia que emplean los partidarios de las opciones políticas: razonamientos circulares; además no es posible recurrir al experimento para decidir entre ellos porque qué experimentos se hacen y qué validez se les atribuye dependen de la teoría que se defienda. Existe una cita de Planck que expresa esta idea expeditivamente: “Una verdad científica no triunfa convenciendo a sus opositores y haciéndoles ver la luz, sino más bien porque sus opositores terminan muriendo y una nueva generación crece familiarizada con ella”.

Estamos, efectivamente, ante un relativismo epistemológico, en el que, por si fuera poco, los “paradigmas” non son falsables en el sentido de Popper. Ni que decir tiene que Kuhn y Popper chocan frontalmente, a pesar de que en un mismo texto, en especial las noticias de física cuántica, se pueda hablar a la vez y sin rubor de “falsabilidad” y “paradigmas”. Curiosamente, ambos autores adoptan una epistemología evolutiva pero con resultados muy dispares.

Sigue leyendo en el Cuaderno de Cultura Científica

martes, 12 de febrero de 2013

Leyes, teorías y modelos (II): Prescripción y descripción en ciencia.




Para ayudarnos en nuestra búsqueda de una noción clara de lo que es una teoría científica, consideremos por un momento dos conocidas y reconocidas teorías científicas, una del campo de la física y otra del de la biología, la teoría de la relatividad general de Einstein (TRGE) y la teoría de la evolución de Darwin (TED). Quizás si conseguimos encontrar una definición en la que ambas encuentren acomodo estemos más cerca de entender lo que es una teoría.

Siguiendo el espíritu, que no la letra, de lo que se hablaba en la entrada de Library of Alexandria (LoA), podríamos decir que una teoría es un intento de reunir de forma sistemática el conocimiento que alguien tiene sobre un aspecto concreto del mundo de la experiencia, lo que incluye a las leyes físicas de las que hablábamos en nuestra anotación anterior. La referencia al mundo de la experiencia es necesaria para distinguir una teoría científica de, por ejemplo, una conjetura matemática: una teoría científica se verá confirmada o rebatida por observaciones y experimentos, una conjetura matemática se verá probada matemáticamente o rebatida de la misma forma o con un contraejemplo.

Las teorías se construyen con un fin en mente del que se espera obtener dos tipos de rendimientos. El fin no es otro que la comprensión del fenómeno, de ese aspecto del universo objeto de estudio. Esta comprensión tendrá como frutos la capacidad de explicar y la capacidad de predecir. En todo caso en forma de “comos”, ya que los “porques” de la ciencia siempre son causales, no metafísicos.

Desde un punto de vista clásico, tan clásico que ya está presente en los griegos, y que probablemente sea el que muchos tienen en mente al hablar del método científico, incluido el autor de LoA, las teorías serían sistemas hipotético-deductivos, es decir, un conjunto de leyes agrupadas por el hecho de que a partir de unos pocos axiomas y la hipótesis generadora de la teoría, todo lo demás puede demostrarse que sigue como consecuencia lógica.

De esta forma la capacidad de explicar es una cuestión de mostrar cómo ocurren las cosas dadas las leyes recogidas en la teoría, y la de predecir es de mostrar cómo ocurrirán las cosas de acuerdo con las leyes de la teoría. Es conocido cómo las teorías de éxito son capaces de hacer predicciones, en algunos casos espectaculares, que años después se demuestran por el experimento y la observación. Predicciones famosas son la de la existencia de elementos químicos desconocidos con propiedades químicas definidas, que hizo Mendeleev cuando presentó su teoría de la periodicidad, o la desviación de la luz de unaestrella por la deformación del espaciotiempo que producía la masadel Sol, en el caso de la TGRE.

Si nos fijamos, esta aproximación clásica al concepto de teoría deja fuera, ni más ni menos, que a la TED. Y es que, si bien la TED tiene una magnífica capacidad explicativa, su capacidad predictiva es escasa. Por lo tanto, sabiendo que para la ciencia, efectivamente, la TED es una teoría archicomprobada, Richard Dawkins suele afirmar que es un hecho (más sobre esto al final), se nos abre la posibilidad, en el mejor espíritu científico, de reformar nuestra visión de las teorías para que se ajuste a cómo se hace ciencia de verdad. Aquí es donde entra el concepto de modelo.

Sigue leyendo en el Cuaderno de Cultura Científica.

martes, 5 de febrero de 2013

Leyes, teorías y modelos (I): La definición de ley física



El concepto de ley natural, ley de la naturaleza o ley o principio físico es esquivo y escurridizo. Así, por ejemplo, hay quien se refiere a la teoría de la gravitación de Newton como la “ley de la gravitación universal”, cuando ni es ley, ni es universal. Por otra parte a las leyes de la termodinámica hay veces que se las llama principios y hay principios, como el de exclusión de Pauli o el de incertidumbre de Heisenberg, a los que no se les llama leyes, siéndolo. Si a esto unimos la polisemia de términos de uso habitual en ciencia como teoría o hipótesis, es comprensible que reine cierta confusión sobre su uso.

Por otra parte la caracterización de lo que es una ley física es un campo de intensa actividad en filosofía de la ciencia con importantes implicaciones epistemológicas y metafísicas. Los expertos en el tema sabrán excusar que hoy dejemos aparte la teoría de la causalidad de Hume, a pesar de su interés, e intentemos ser un poco pragmáticos, aunque cerremos con filosofías.

Tomemos, de entrada, la definición de ley “científica” [sic.] que el pasado 30 de enero aparecía en el blog Library of Alexandria y que provocó cierto intercambio de pareceres en Twitter: Una afirmación que se basa en una observación experimental repetida que describe algún aspecto de un fenómeno natural. […] las leyes suelen expresarse usando matemáticas. Esta definición (en adelante, DLoA) se daba con la intención de ayudar a los lectores/comunicadores a hablar con propiedad cuando se referían a la ciencia. En lo que sigue mostraremos brevemente que esta definición es manifiestamente insuficiente y daremos cinco criterios para distinguir una ley física de un mero accidente estadístico. Dejaremos para una anotación posterior la discusión sobre qué es una teoría científica.

La lluvia es un fenómeno natural. Su localización geográfica es un aspecto de este fenómeno. Pues bien, yo he comprobado experimentalmente en repetidas ocasiones que cada vez que voy a Bilbao, llueve. Según, la DLoA, el que “si César está en Bilbao entonces llueve en Bilbao” es una ley física. El lector pensará que esto es absurdo, que esto no es una ley de la naturaleza ni nada parecido. Y, sin embargo, cumple con la DLoA incluida la coda de ser expresable matemáticamente, ya que, dada su estructura lógica (si A entonces B), es trivial en teoría de conjuntos.

¿Qué falla entonces en esa definición? O, dicho de otra manera, ¿qué es una ley de la naturaleza? ¿qué diferencia la segunda ley del movimiento de Newton, por ejemplo, de la afirmación de que cuando yo estoy en Bilbao, llueve?

Sigue leyendo en el Cuaderno de Cultura Científica

lunes, 17 de septiembre de 2012

Ciencia, arte y religión: consideraciones sobre la generación de conocimiento real en las humanidades.



Empecemos definiendo “ciencia” como cualquier estudio que emplee el método científico. Démonos cuenta de que esta definición permite incorporar algunas disciplinas consideradas de humanidades si se despojan de posibles componentes subjetivos. Así, la historia, la lingüística o la antropología pueden considerarse ciencias según esta definición, así como la mayor parte de la psicología, si bien no todo lo que se publica sobre ellas pueda ser incluído debido a la ausencia de la objetividad necesaria y, en ocasiones, al exceso de especulación sin base empírica.

En esta línea llamaremos “arte” a todas la humanidades que por dejación o convicción no emplean el método científico. En este apartado encontraremos al arte propiamente dicho, y a buena parte de las publicaciones de “ciencias” sociales, antropológicas, históricas, filológicas y filosóficas. Nos permitimos llamar la atención al hecho de que las llamadas pseudociencias entran en esta categoría, desde la astrología a la homeopatía, pasando por la nigromancia. En lo que sigue “ciencia” y “arte” corresponden a estas definiciones y no a otras.

La interacción de ciencia y arte se produce de forma cotidiana. Desde el punto de vista de adquisión de conocimiento objetivo la primera, quiérase o no, informa a la segunda, mientras que ésta perturba a la primera a la hora de conseguir sus objetivos. De hecho, el método científico tiene entre dichos objetivos luchar contra el aumento de entropía que supone el arte.

Para poder aprehender qué queremos decir con el párrafo anterior debemos responder a una pregunta: ¿qué diferencia fundamental más allá de la metodológica separa a ciencia y arte? Y quizás interese también encontrar respuesta a una segunda: ¿existe algún ámbito en el que convivan ciencia y arte?

Las teorías que formula la ciencia tienen como objeto proporcionar descripciones del mundo que no dependan de ninguna perspectiva concreta ni de ningún observador en particular. Si bien, en la práctica, no consigue abstraerse completamente de las percepciones y formas de pensar característicamente humanas, su éxito o no en el cumplimiento de su objeto tiene un contraste externo, la propia naturaleza, a la que le importan poco los sentimientos humanos.

El arte, por su parte, trabaja con visiones del mundo que se expresan de forma concreta (obra de arte), adaptadas precisamente a las facultades sensoriales y sensibilidades humanas. El éxito de las obras de arte se mide por su capacidad de evocar respuestas a lo largo del tiempo en los humanos que las perciben.

La ciencia corrige sistemáticamente los errores del sentido común. Al arte no le importa, en principio, que estos errores lo sean, ya que el arte “vive” en el sentido común, en las respuestas primarias de los humanos. De hecho, una argumentación recurrente de los valedores del arte como fuente de conocimiento es que las correcciones radicales del sentido común que proporciona la ciencia (como, por ejemplo, el conocimiento de que el ordenador que estás usando es fundamentalmente espacio vacío en el que hay partículas que se mueven a toda velocidad y que si no colapsa es por el principio de exclusión de Pauli), este tipo de correcciones, decíamos, son interpretadas como excesivas racionalizaciones de la realidad que se apartan de las “verdades del sentido común”, lo que les hace perder la aprehensión de “toda la verdad” (los entrecomillados proceden de un texto de Anthony O'Hear) . El siguiente paso del arte es afirmar que ese acceso a la verdad completa lo proporciona él. Lo que se olvida en este caso es que, por una parte, la ciencia tiene distintos niveles de abstracción, no sólo uno, y, por otra, que si admitimos que la ciencia no puede explicar toda la verdad, de ahí no se deduce que el arte pueda.

Religión: las aspiraciones de la ciencia con los métodos del arte

Hay una actividad humana donde ambas aproximaciones al mundo conviven y donde se muestra claramente lo que aporta cada una. Hablamos de la religión.

La religión comparte con la ciencia el objetivo de explicar cómo el mundo es en sí mismo, no cómo es para nosotros. Pero, a diferencia de la ciencia, y más próxima a una obra de arte, describe al universo como dotado de un propósito, con voluntad y personalidad, revelando las intenciones de un ser (o conjunto de seres) trascendentes. Al presuponer un ser (o conjunto de seres) trascendente, la religión evita la posibilidad de refutación empírica directa por la realización de experimentos científicos. Incluso las catástrofes y el sufrimiento encuentran acomodo como expresión de una voluntad trascendente que, por esta misma característica, no se puede comprender totalmente. La misma postura apriorística la encontramos en el arte.

Efectivamente, la religión, concebida adecuadamente, esto es, desde el punto de vista teológico y no en sus manifestaciones culturales, se basa en experiencias de significado y valor cuya expresión y exploración son propias del arte. Y esto es así, primero, porque la ciencia no se manifiesta sobre el sentido del universo y, segundo, porque a la persona religiosa se le hace muy difícil vivir asumiendo que sus valores son sólo proyecciones de un cerebro humano fruto de la evolución.

Sólo el método científico es aceptable como generador de conocimiento real

Mantenemos que sólo una metodología científica es intelectualmente aceptable como generadora de conocimiento objetivo. La parte de las humanidades más especulativa, la filosofía, si ha de ser algo más que juegos florales, ve reducidos sus problemas a problemas científicos, aunque los aborde con herramientas diferentes a las de las ciencias experimentales, subordinando el valor de verdad de sus conclusiones a los resultados de experimentos y observaciones. Finalmente, sólo las humanidades que aspiran a aportar conocimiento genuino adoptan el método científico. El resto, como el arte, medran en la parte más primitiva del ser humano. Lo que en sí no es bueno ni malo; simplemente, es.

Esta entrada es una participación de Experientia docet en la I Edición del Carnaval de Humanidades

miércoles, 25 de julio de 2012

Nanobiomática, la revolución que marcará el siglo XXI



El 15 de abril de 2010 volvía a casa después de asistir a una demostración de un nuevo equipo industrial en una ciudad del centro de Suecia. Cuando llegamos mi compañero y yo al aeropuerto de Estocolmo nos encontramos con el caos. Al parecer un volcán en Islandia, el Eyjafjallajökull, había entrado en erupción y las cenizas que arrojaba a a la atmósfera obligaban a cerrar el espacio aéreo por tiempo indefinido. Nuestro vuelo a Madrid aún no estaba cancelado aunque sí muchos otros. Yo, siguiendo un instinto de supervivencia peculiar, entré en la bien surtida librería a comprarme un par de libros.

Nuestro vuelo fue el último en despegar de Estocolmo antes del cierre del espacio aéreo sueco y nuestro piloto nos llevó a España dando un rodeo por Polonia. En ese tiempo comencé a leer uno de los libros que más me ha hecho pensar en los dos últimos años: The Black Swan, The Impact of the Highly Improbable, de Nassim Nicholas Taleb.

Un cisne negro, citando a Taleb, es un acontecimiento que reúne tres características. Primero, es completamente inesperado, ya que nada en el pasado puede apuntar de forma convincente a esa posibilidad. Segundo, tiene un impacto enorme. Tercero, a pesar de ser inesperado, nuestra capacidad humana para la racionalización a posteriori hace que lo veamos como algo explicable y predecible.

Los cisnes negros son el tipo de acontecimientos que marcan las revoluciones científico-técnicas; pensemos en el descubrimiento de los rayos X o en la penicilina o, y perdonad que aquí cite una afición, los cuasicristales. En las próximas décadas serán los cisnes negros los que marquen la evolución de la ciencia y la técnica concretas. Por definición no podemos saber cuáles serán. Nosotros, en lo que sigue, no vamos a intentar predecir qué desarrollos concretos habrá en la ciencia y la técnica en lo que queda de siglo, ya dejamos a otros que se equivoquen en eso, sino que vamos a explorar brevemente, y sin ánimo de ser exhaustivos, las áreas en las que podrían producirse esos avances. Puede que te sorprendan.

La instrumentalización de la química y el recorrido limitado de la física.

La química, como ciencia que permite conocer el universo, está agotada. No habrá sorpresas químicas relevantes, si bien cabe esperar de ella una enorme variedad de contribuciones prácticas. La química es como una lengua que cuesta dominar: a lo largo de los siglos hemos ido aprendiendo su gramática, su vocabulario, sus modismos, cada uno de estos descubrimientos permitiéndonos conocer más el universo y a nosotros. Pero un idioma, una vez dominado, sirve para expresar ideas. Este es el futuro papel de la química, un instrumento sofisticado que facilitará mucho de lo que sigue.

La física sólo es un poco más estimulante desde esta perspectiva que hablamos. Aunque aún haya mucho que aprender acerca de la estructura fundamental del universo, las máquinas necesarias para realizar esta exploración son cada vez más grandes y caras. Existe un concepto económico crítico para estas situaciones, el de rendimientos decrecientes y, aunque el descubrimiento de una partícula compatible con el bosón de Higgs pueda estimular durante un tiempo breve el imaginario colectivo de los que administran el dinero, no cabe esperar muchas inversiones en algo que tiene de entrada pocas aplicaciones prácticas desde su punto de vista.

En las próximas décadas, salvo hallazgos no previstos en el modelo estándar que nos depare el LHC (más improbables si la partícula descubierta se confirma que, efectivamente, es el bosón de Higgs del modelo estándar), la física fundamental estará centrada en comprender la materia oscura (partículas fundamentales que interactúan con la de materia ordinaria aparentemente sólo a través de la gravedad) y en encontrar ondas gravitacionales (lo que permitiría unir la gravedad, explicada actualmente por la torre de marfil que es la teoría general de la relatividad, con la física cuántica que explica el resto de la física). Para conseguir ambos fines bastarían en principio instrumentos relativamente baratos comparados con un megaacelerador de partículas lineal, por ejemplo.

La otra gran incógnita de la física es la energía oscura, eso que hace que el universo se expanda aceleradamente. A diferencia de las dos anteriores, su resolución requiere de una revolución teórica previa más que de nuevos datos. Y esto entra de lleno en el dominio de los cisnes negros. Puede que ahora, mientras lees esto, un parado esté garabateando, en un parque de Málaga, la que podría ser la solución a este problema.

La revolución nanobiomática.

Para el año 2050, parece bastante probable que sepamos, más allá de la certeza estadística, que la vida es abundante en el universo. El estudio de los planetas extrasolares con nuevos telescopios espaciales parece que es algo que tiene la financiación poco menos que garantizada: la pregunta de si estamos solos en el universo es fácilmente entendible por los administradores y también interesante para ellos.

Un aspecto relacionado es el origen de la vida en la Tierra. La respuesta puede que venga del mejor conocimiento del funcionamiento celular y la identificación de sus partes más primitivas, y de la experimentación, es decir, de la creación de organismos vivos en el laboratorio a partir de moléculas químicas sencillas.

Pero los descubrimientos en biología están entrando en una fase exponencial que nosotros atribuimos a cuatro motivos principales:

  1. La capacidad desarrollada recientemente de secuenciar el ADN rápidamente y en cantidades enormes.
  2. Las mejoras en microscopia, en el sentido más amplio, desde sistemas de tinción a fotografías a nivel atómico, que permiten una mejor comprensión de los procesos celulares.
  3. Las técnicas para el estudio específico del encéfalo y su funcionamiento, probablemente el objeto de estudio científico más interesante del universo.
  4. La asunción generalizada de que la investigación biológica tiene que tener una perspectiva evolutiva.

Cabe esperar que en próximo par de décadas la caracterización genética de todas las especies esté completa. Alrededor del año 2030, dependiendo de la financiación, la mayor parte de la vida conocida habrá sido caracterizada, incluyendo la microbiológica marina o la subterránea profunda (de existir). En el proceso es posible que nos encontremos grandes sorpresas (asumimos que con más fundamento que la vida basada en arsénico).

Lo anterior, completar el álbum de cromos de la vida terrestre, es fascinante e intelectualmente atractivo. Pero esta base de datos genéticos gigantesca y el conocimiento biológico derivado de ella, abriría la puerta a la explotación industrial, lo mismo que ocurrió con la química en el XIX. En esto trabajan ya activamente personas como Craig Venter, ya sea por la vía de crear de vida sintética de diseño, ya por la creación de nuevos organismos transgénicos o directamente por el uso de nuevas especies.

Pero, sin duda, el punto de inflexión lo marcará la combinación de la biología con la nanociencia y la informática: la nanobiomática.

Digámoslo claramente, y citando a un sabio malagueño: la nanotecnología ha tenido un arranque de caballo andaluz y un parón de burro manchego. Durante los últimos veinte años se ha hablado mucho de nanotecnología pero, a fin de cuentas, salvo algunas estructuras que quedan muy espectaculares en fotografía y la alteración de las propiedades de algunos materiales, ya sea por la incorporación de otros o por técnicas de encapsulación, poco más se ha conseguido. Estamos a años-luz de esos ejércitos colaborativos de micromáquinas que prometían los visionarios de los años noventa. Pero esto cambiará cuando se conozca mejor el comportamiento de las células.

Las proteínas, el ARN o el ADN son moléculas grandes y tienen exactamente el tamaño típico de los objetos con los que opera la nanociencia: mayor que el de la química tradicional, pero aún suficientemente pequeños como para que la influencia de las interacciones supramoleculares electrostáticas sea crítica impidiendo que la ingeniería mecánica clásica pueda lidiar con ellas. De hecho, fueron estas interacciones las que arruinaron las predicciones de los visionarios: los engranajes y levas de las micromáquinas se veían alterados por las fuerzas de van der Waals y otros efectos mal comprendidos.

Pero, hete aquí que los sistemas vivos, obviamente, funcionan. Una vez que se analicen apropiadamente aparecerá todo un abanico de aplicaciones tecnológicas: ya sean organismos altamente modificados, o sistemas completamente artificiales que simplemente toman sus fundamentos de la biología, como los robots de Karel Capek, el inventor del término en 1921.

Pero unos robots así requerirían también la intersección de la biología, además de con la nanotecnología, con la informática y la inteligencia artificial, lo que hemos dado en llamar nanobiomática. La unión de una mejor compresión del funcionamiento del cerebro con una capacidad de computación artificial mucho más sofisticada. Las nuevas técnicas para el estudio del cerebro pondrán de manifiesto cómo se organiza el cerebro a nivel celular (conectoma). Los ordenadores, más rápidos y potentes, permitirán modelar como software esa nueva información. Así sabremos cómo funciona el cerebro de verdad, lo que permitirá la construcción de cerebros artificiales que trabajarán con los mismos principios, pero mucho más potentes y sin errores. Cerebros artificiales nanobiomáticos que puede que funcionen conscientemente.

Curiosamente, según la teoría de Taleb, nadie podrá hacer una fortuna apostando a nada de lo anterior: lo previsible no es novedoso realmente. Y es que el futuro lo conformarán los cisnes negros.





viernes, 6 de julio de 2012

La "partícula de dios" como dosis ínfima de arsénico





¿Cuál era el medio de propaganda más potente del hitlerismo? ¿Eran los discursos de Hitler y de Goebbels, sus declaraciones sobre este o aquel tema, su agitación contra el judaísmo, contra el bolchevismo?
[…]
No, el efecto más potente no lo conseguían ni los discursos, ni los artículos, ni las octavillas, ni los carteles, ni las banderas, no lo conseguía nada que se captase mediante el pensamiento o el sentimiento conscientes.
El nazismo se introducía más bien en la carne y en la sangre de las masas a través de palabras aisladas, de expresiones, de formas sintácticas que imponía repitiéndolas millones de veces y que eran adoptadas de forma mecánica e inconsciente.

Esto escribía Victor Kemplerer, un filólogo judío que sobrevivió en Dresde (Alemania) al terror nazi, en “LTI: la lengua del Tercer Reich” publicado en 1947. Traducción de Adan Kovacsics.

Y esto es lo que está pasando con la expresión “partícula de dios” aplicada al bosón de Higgs y al uso oportunista que de esta expresión publicitaria, infundada y propagada por periodistas papanatas, están haciendo religiosos de todo tipo, sin entender de qué hablan, pero arrimando el ascua a su sardina de forma interesada.

Sabiendo que el nombre “partícula de dios” no es más que el título de un libro de divulgación científica y que lo colocó un editor con visión comercial sin que hubiese otro fundamento para ello, su uso extendido, repetido y torticero sólo tiene fines propagandísticos y revelan, no un interés en la verdad, sino en “ganar”.

Veamos a título de ejemplo las declaraciones del portavoz de la Conferencia Episcopal Española que extraigo de aquí y su traducción:

  1. "Es bienvenido que se hable de Dios en la física" porque demuestra que "cuando el ser humano busca el origen de las cosas no puede menos que hablar de Dios"

  2. Tras reconocer su desconocimiento sobre la naturaleza de esta teórica partícula, Martínez Camino ha asegurado que "llama la atención que, al menos en el lenguaje divulgativo, físicos y cosmólogos hablen mucho de Dios".

  3. "Nos viene bien que se hable de Dios, del origen del por qué existe algo. A esa pregunta, la física nunca podrá dar respuesta del todo", ya que "la física no tiene medios específicos para escuchar a Dios", ha dicho.

  4. Así, ha explicado que la física puede dar respuestas sobre "las cosas que se puede medir y pesar, y el amor no se puede medir y pesar, por eso no es objetivo de la física". […] "Y el amor infinito del que todo procede tampoco es objeto de la física, sin embargo esa es la razón de que existe algo. Dios es amor y ha sacado de la nada todas las cosas. Por amor", ha concluido.

El punto 1 es una falsedad, así de claro. En la física no se habla de la “partícula de dios”, se habla del bosón de Higgs. Es en los medios de comunicación sin rigor, en los que el titular lo es todo, donde se habla de partícula de dios. El portavoz de la misma Iglesia que acusa a los medios de distorsionarsu imagen  ahora no tiene empacho en tomar como cierta la imagen que dan los medios generalistas de un acontecimiento complejo que, en la mayoría de los casos, les supera.

El punto 2 es una muestra clara del importante uso manipulativo de las palabras. No entiende, pero aprovecha la oportunidad y la usa, y se apoya en el punto 1 para darle proyección.

El punto 3 ya es puramente apologético y posiciona a la fe, primero, como conocimiento de la realidad y, segundo, como medio de conocimiento superior al proporcionado por las ciencias físicas. Hasta aquí es compatible con cualquier creencia religiosa.

El punto 4 es doctrinal y establece que la fe auténtica es la cristiana por la definición del hecho diferencial de su dios.

La lógica propagandística del portavoz es digna de Goebbels, que era un nazi asqueroso, pero buenísimo en su trabajo. No influirá en una persona formada, pero sí llegará a una mayoría que verá reafirmadas sus creencias.

La visión del mundo tras los creyentes monoteístas en general (dios el artesano), y que rezuma en las declaraciones del portavoz, la explica estupendamente la directora del máster en bioética de la Universidad Católica de Ávila en esta mini entrevista.

En la guerra por el conocimiento que se viene librando desde el origen de los tiempos, el descubrimiento de una partícula compatible con el bosón de Higgs puede estar resultando, con la colaboración imprescindible de periodistas incompetentes, una batalla propagandística perdida frente a los que lo saben todo porque viene en su libro.

Para finalizar no me resisto a citar de nuevo a Kemplerer:

Pero el lenguaje no solo crea y piensa por mi, sino que guía a la vez más emociones, dirige mi personalidad psíquica, tanto más cuanto mayores son la naturalidad y la inconsciencia con que me entrego a él. […] Las palabras pueden actuar como dosis ínfimas de arsénico: uno las traga sin darse cuenta, parecen no surtir efecto alguno, y al cabo de un tiempo se produce el efecto tóxico.

miércoles, 13 de junio de 2012

Sócrates y el efecto Dunning-Kruger (con referencia a algunos comentaristas de blogs y demás)




“Sólo sé que no sé nada”. ¿Cuántas veces habremos oído esta frase atribuida a Sócrates como justificación de la ignorancia? Sin embargo, esta sentencia no aparece en ninguno de los escritos en los que se cita al que era más sabio que ningún otro humano, parafraseando a la Pitia. De hecho, la comprobación de lo que en realidad quería decir nos desvelará que Sócrates estaba en realidad probablemente sujeto a un prejuicio cognitivo, el efecto Dunning-Kruger.

El dicho se suele atribuir al Sócrates de Platón. Sócrates no dejó nada escrito, por lo que lo que conocemos de él es lo que escribieron sus contemporáneos, especialmente Platón. En ninguna de las referencias de Platón a Sócrates aparece la expresión “Sólo sé que no sé nada”.

Sin embargo, en la Apología, la versión idealizada de la defensa que hizo Platón de Sócrates en el juicio a éste, encontramos: “Este hombre, por una parte, cree que sabe algo a pesar de no saber nada. Por otra, yo, igualmente ignorante, no creo saber algo”. Esta es la frase a partir de la cual se produce el salto, lógicamente falaz, del “no creo saber algo” al “no sé nada”. El autor no dice que no sepa algo sino que no puede, que nadie puede, saber con absoluta certeza, pero que puede tener confianza acerca del conocimiento de ciertas cosas (por ejemplo, de que el otro no sabe nada). Como es obvio, esta conclusión no la extraemos de esta frase aislada sino sobre el análisis del conjunto de la obra sobre Sócrates que han realizado varios autores.

Vemos pues que la ignorancia o, mejor, su admisión, no es una resultante sino un punto de partida para el conocimiento. Es la base del método socrático que se ilustra mejor en los primeros diálogos de Platón. El método consiste en simular ignorancia, la llamada ironía socrática, o admitirla como base sobre la que construir el conocimiento y establecer un diálogo con un supuesto experto, cuya confiada afirmación de conocer terminará siendo destruida. A partir de aquí ya se pueden desarrollar ideas más adecuadas.

Así, en Menón, un diálogo de Platón, aparece Sócrates diciendo: “Por eso ahora no sé lo que es la virtud; quizás tu lo supieses antes de que me contactases, pero ahora eres ciertamente como uno que no sabe”. En este punto el objetivo de Sócrates está claro, cambiar la posición de Menón, que era un firme creyente en su propia opinión y cuya afirmación de conocimiento Sócrates acaba de probar que es infundada.

Estamos ante el origen de la filosofía occidental que terminará resultando en lo que hoy conocemos como ciencia: Sócrates comienza toda sabiduría con el autocuestionamiento, con la propia admisión de ignorancia.

Pero veamos la misma cuestión desde un punto de vista diferente. En los diálogos socráticos de Platón el sabio es el que duda, el que se cuestiona, mientras que el verdadero ignorante es el que tiene muy clara cuál es la verdad, a la que ha llegado en muchos casos por sí mismo sin preocuparse demasiado de donde surge el conocimiento. Por otra parte, estos “sabios” no siempre reconocen su error, están pagados de sí mismos y se creen superiores a los demás. Estamos ante una ilustración del efecto Dunning-Kruger.

El efecto Dunning-Kruger se puede expresar de la siguiente manera: los peores trabajadores/estudiantes/participantes son los que menos conscientes son de su propia incompetencia. Toma su nombre de un estudio de 2003 que realizaron Dunning, Kruger y otros con estudiantes universitarios con respecto a los resultados de sus exámenes. Después los resultados han sido reproducidos en varias ocasiones, por ejemplo con estudiantes de medicina a la hora de evaluar su capacidad para realizar entrevistas de diagnóstico, con administrativos evaluando su rendimiento o con técnicos de laboratorios médicos calibrando su nivel de dominio del trabajo.

La razón de fondo parece estar en que los que peor lo hacen son incapaces de aprender de sus errores.

Una solución aparentemente simple es decirle directamente al incompetente que lo es y por qué. Pero no funcionará. Desafortunadamente, el incompetente habrá estado recibiendo ese tipo de respuesta durante años y no habrá sido capaz de enterarse. A pesar de los exámenes suspensos, los trabajos mal hechos, las risas, burlas y sesudas contraargumentaciones a sus comentarios en foros y blogs y la irritación que provocan sistemáticamente en los demás, el incompetente sigue sin creerse que lo sea.

Como Sócrates, las personas con verdadero talento tienden a subestimar lo buenos que son. Es la parte simétrica de este prejuicio: las personas inteligentes tienden a asumir que para los demás las cosas son tan fáciles y evidentes como para ellos, cuando lo que están haciendo es proyectar su propia luz y creer que ven un reflejo de la misma en los demás.

Estas ideas se conocen desde mucho antes que Dunning-Kruger y los demás investigadores las cuantificasen. Se pueden encontrar muchas citas al respecto, como esta de Bertrand Russell en la que se refiere a su tiempo, pero que como sabemos que es otro prejuicio cognitivo, podemos extrapolar a cualquiera: “Una de las cosas dolorosas de nuestra época es que aquellos que se sienten ciertos son estúpidos, y aquellos con algo de imaginación y comprensión están llenos de dudas e indecisión”.

En el mundo de Internet lo anterior tiene una consecuencia práctica inmediata: No alimentes al comentarista manifiestamente incompetente, es sólo una versión de troll que busca llamar la atención. Su problema es que no sabe, ni puede llegar a saber, que lo es.

jueves, 10 de mayo de 2012

#Sinciencia no hay principios


Dice el refrán español que el gato escaldado del agua fría huye. Cuando se han gastado barbaridades de dinero en instalaciones e infrestructuras de investigación, en parques tecnológicos de diseño para los que no hay empresas tecnológicas que los ocupen y se convierten en polígonos industriales pijos, ahora se recorta en lo verdaderamente necesario: los fondos que permitirán la existencia, no de una, sino de las dos próximas generaciones de investigadores en España.

No es un hecho psicológico nuevo que las personas leamos los datos no como objetivamente son, sino con las gafas de nuestra ideología. El hecho cierto, que yo entiendo objetivo, es que recortar en la inversión en ciencia hipoteca el futuro de España más allá de lo imaginable.

Conseguir que esta idea cale, que estamos hipotecando el futuro del país de mala manera, se enfrenta a otro sesgo cognitivo: la mayoría de las personas no ven más allá del corto plazo. Además, la opinión liberal es que ahí está la iniciativa privada y eso, en este país, sede de la cultura dicotómica del pelotazo/funcionario, es una utopía, salvo honrosas excepciones.

No voy a entrar en explicar por qué son tan importantes los investigadores; a quien tenga verdadero interés le invito a que lea cualquier texto de historia económica. Solo quiero dejar constancia que, siendo los recortes y las subidas de impuestos comprensibles en general, en ciencia son un error mayúsculo. Y, para que conste, yo no vivo de los presupuestos del estado (siempre he trabajado en la empresa privada).

Finalmente, no me resisto a dejaros con una pequeña historia, convenientemente alejada en el espaciotiempo, que yo, en mi ingenuidad, considero tan relevante como ilustrativa.

Peces por Principios


De Historia Piscium (DHP) fue un trabajo que comenzó Francis Willughby (1635-1672) y que terminó John Ray (1627-1705) y que se imprimió con el apoyo financiero de la Royal Society en 1686. El texto y las ilustraciones de DHP reflejan el espíritu del siglo XVII: el estudio de la naturaleza por parte de Ray era un elemento más de la obra de su dios, como lo era su búsqueda del conocimiento y el lenguaje perdidos a consecuencia del pecado original (Adán, Eva, la serpiente y la manzana, para los despistados). El apoyo de la Royal Society venía por el interés de ésta en reformar la historia natural de los peces.

La academia científica más antigua del mundo, fundada en 1660, casi quiebra a consecuencia de la publicación de DHP. Su presidente, Samuel Pepys, marino, apoyó el proyecto de Ray completamente y no escatimó en gastos, principalmente en las ilustraciones, de altisima calidad y correspondiente precio. DHP no se vendió como estaba previsto y aquello fue la ruina: no quedó dinero para ningún otro proyecto.

El primer proyecto en sufrir los recortes fue la publicación de un libro titulado Philosphiae Naturalis Principia Mathematica, más conocido como los Principia de Isaac Newton. Probablemente el libro más importante en la historia de la física y quizás de toda la ciencia: en él se describían las leyes del movimiento y la gravedad.

Un empleado de la Royal Society, consciente de la importancia del texto, decidió financiarlo él mismo. Los Principia se publicaban en 1687 con el aporte económico de Edmund Halley, famoso por el cometa que lleva su nombre. Ello fue posible por la fortuna personal de Halley, adquirida por su padre con una fábrica de jabón.

Pero la Royal Society seguía con la política de recortes de Sam Pepys y, tras la publicación de los Principia, el señor Halley fue informado de que la sociedad no se podía permitir seguir pagándole su sueldo anual de 50 libras. Como compensación recibiría su contravalor en ejemplares de DHP.

El nombre de Sam Pepys, como cargo político, lo podéis encontrar tanto en la ilustración de DHP que abre este texto como en la portada de los Principia. A buen entendedor...


lunes, 7 de mayo de 2012

La convicción filosófica del investigador: el caso de Mijail Lomonósov


Catalina II de Rusia visita el estudio de Lomonósov



En las últimas semanas ha venido desarrollándose un (acalorado) debate sobre el papel que pueda tener la filosofía en la comprensión real del universo o, visto desde el otro lado, sobre cuáles son los límites de la comprensión física del universo. Uno de los puntos álgidos fue la publicación de una entrevista a Lawrence Krauss en The Atlantic en la que éste venía a afirmar, en la línea de Richard Feynman o Steven Weinberg, que filosofía y teología son unas pérdidas de tiempo completamente inútiles.

Nosotros no vamos a entrar (hoy) en el fondo de la cuestión. Pero sí creemos que es conveniente que recalquemos la necesidad de ser conscientes de cómo nuestras creencias más íntimas, que surgen de convicciones filosóficas y/o religiosas muchas veces no expresadas de forma explícita, conforman nuestra visión del mundo y que, por eso mismo, influyen en como abordamos su estudio y qué resultados tendemos a aceptar y cuáles no. Esas convicciones son las gafas con las que vemos el universo, nuestro objetivo hoy no es dilucidar qué gafas son las mejores sino llegar a ser conscientes que esas gafas existen estudiando un caso concreto.

Para que nuestra aproximación sea útil es conveniente tener en mente que nuestra época, nuestro tiempo, no es mejor ni peor que cualquier otro histórico: los humanos no hemos cambiado tanto. Es por esto por lo que los ejemplos que nos ofrece la historia son útiles.

Sin duda un caso paradigmático de la influencia de las convicciones filosóficas en el desarrollo de una carrera científica es el de Einstein. Lo hemos tratado extensamente en este blog, por lo que invitamos al lector interesado que visite la serie Einstein y..., especialmente Einstein y ...Ernst Mach  , Einstein y...Niels Henrik David Bohr  y Einstein y... Paul Ehrenfst

Lomonósov

Hoy vamos a tratar de otro caso si cabe más espectacular. Se trata de uno de los mayores genios científicos de la historia moderna y, sin embargo, un desconocido fuera de su Rusia natal, Mijaíl Vasílievich Lomonósov (1711-1765). El enlace anterior dirigido a la Wikipedia en español nos dará idea de la imagen que se proyecta de Lomonósov fuera de Rusia: escritor, gramático, poeta, ferviente cristiano que hizo algo de ciencia.

Lomonósov fue escritor, geógrafo, gramático y poeta, efectivamente. Pero él decía de sí mismo que su profesión era la física y que su entretenimiento era la poesía. Simplemente la sociedad podía valorar la segunda pero no estaba preparada para la primera.

A efectos de lo que nos ocupa la afirmación más importante de las que vierte la Wikipedia es la de ferviente cristiano. Lomonósov no lo era. No vamos a entrar en una argumentación prolija, bastarán un par de ejemplos, para ilustrar que era un cristiano de conveniencias; en ningún caso “ferviente”. En 1761, previamente a la observación del tránsito de Venus, Lomonósov predijo la aparición de un halo en el contorno del planeta al comienzo y al final del tránsito en caso de que el planeta tuviese una atmósfera densa. Este halo fue observado y en la memoria que Lomonósov escribió al respecto especulaba con la posibilidad de que existiese vida y que, en el caso de existir los venusianos no tendrían necesariamente que ser cristianos. Una afirmación mayor en un país en el que el sínodo de obispos había condenado como herético el modelo heliocéntrico copernicano tan sólo 20 años antes.

En otra ocasión, Lomonósov tuvo un roce con el conde Iván Shuvalov, que lo apoyaba financieramente. El conde quería que Lomonósov apareciese por la corte imperial más a menudo, ante lo que Lomonósov respondió: “No sólo no deseo ser el bufón de la corte delante de la mesa de los señores y gobernantes de la tierra, ni siquiera del señor Dios mismo, que me dio las entendederas hasta que vea oportuno quitármelas”. Lomonósov sabía a quien le decía eso, Shuvalov era un aristócrata ilustrado, y no tuvo consecuencias para él, pero no suena muy fervorosamente cristiano.

Lomonósov era un deísta, no un cristiano en el sentido habitual del término. Creía en un dios que era fundamentalmente un relojero sabio más que ninguna otra cosa. Sus posiciones eran muy similares a las de su contemporáneo Benjamin Franklin.

Lo anterior casa estupendamente con la posición filosófica más definitoria de la física de Lomonósov basada en explicaciones cartesianas de modelos mecánicos. Una posición en contraposición a la preponderante en Europa en esa época basada en razonamientos newtonianos que se fundamentaban en fluidos imponderables: éter, electricidad o calórico. Esto conllevó , junto con otros factores de tipo personal y geopolítico, a que grandes descubrimientos no fuesen reconocidos en el resto de Europa. A su muerte el mundo olvidó por completo a Lomonósov, sólo la mentalidad de la segunda mitad del siglo XIX estuvo ya preparada para reconocer sus aportaciones.

Efectivamente, los razonamientos de Lomonósov se basaban siempre en la convicción de que los fenómenos físicos y químicos se podían explicar exclusivamente en términos mecánicos, por la interacción de “partículas diminutas e insensibles”. Él llamó a esta filosofía “química física” en 1752 (no se confunda con el campo actual). Pero veamos esta filosofía en acción.

Principio de conservación de la materia/energía.

Aunque en los libros de texto habituales no aparezca, Lomonósov fue la primera persona en confirmar experimentalmente la ley de conservación de la materia.

Es de todos sabido que los metales ganan peso cuando se calientan (hoy día sabemos que ello se debe a la oxidación). La mentalidad que comenzaba a imperar a finales del XVII, llevó a Robert Boyle, contemporáneo y amigo de Newton, a concluir erróneamente en 1673 que el “calor” era algún tipo de materia.

En 1756 Lomonósov demostró que la idea de calórico era falsa calentando placas de plomo en un recipiente hermético y comprobando que el peso del conjunto era el mismo antes y después de calentar. En una carta a Leonhard Euler en la que explicaba el experimento enmarcó las conclusiones en un principio general de conservación:

“Todos los cambios que encontramos en la naturaleza proceden de tal manera que […] no importa cuanta materia se añada a cualquier cuerpo que una cantidad igual ha sido tomada de otro[...] y ya que esta es la ley general de la naturaleza también se encuentra en las leyes del movimiento: un cuerpo pierde tanto movimiento como da a otro”.

Cero absoluto.

Experimentos análogos llevados a cabo por Antoine Lavoisier diecisiete años más tarde fue un paso más allá, demostrando que el incremento de peso del metal se correspondía exactamente con la reducción del peso de oxígeno en el aire. Pero a diferencia de Lavoisier, que seguía considerando el calor como un “sutil líquido calórico”, Lomonósov lo interpretaba como una medida del movimiento lineal y rotacional de corpúsculos.

Tan convencido estaba que el calor se correspondía con la energía mecánica de los corpúsculos que veintiocho años antes del resultado de Lavoisier, en 1745, y casi un siglo antes de que Lord Kelvin introdujese la escala absoluta de temperaturas, Lomonósov propuso la idea de frío absoluto, la temperatura a la que los corpúsculos ni se desplazan ni rotan, lo que hoy llamaríamos el cero absoluto.

Teoría cinética de los gases.

El convencimiento de Lomonósov de que la realidad eran corpúsculos también le llevó a predecir correctamente una desviación en la ley de Boyle de los gases. Dado que las partículas no son puntos matemáticos, sino que ocupan un volumen, la presión del aire no podría mantenerse inversamente proporcional al volumen de gas a grandes presiones. Las deducciones de Lomonósov sentaban las bases de lo que después sería la teoría cinético molecular, que no se desarrollaría (independientemente) hasta bien entrado el siglo XIX.

Mercurio sólido.

El siglo XVII fue el siglo de los salones cultos e ilustrados en los que se podía encontrar a un famoso poeta recitando sus últimos versos o a un científico haciendo experimentos. En estos salones las propiedades del mercurio, el hecho de que fuese un metal líquido, lo rodeaban de cierto misticismo. Pero no para Lomonósov.

Estaba convencido de que su comportamiento era igual al de cualquier otro metal solo que con rangos de temperaturas diferentes. Durante el invierno particularmente severo de 1759, Lomonósov con la ayuda de Joseph Adam Braun, consiguió con una mezcla de nieve y ácido nítrico llevar un termómetro por debajo de los -38ºC obteniendo por primera vez mercurio sólido. Golpeando la masa obtenida con un martillo encontraron que era a la vez elástica y dura, “como el plomo”. Fue el hallazgo más famoso de Lomonósov durante su vida.

Vemos en estos ejemplos como unos principios rectores de tipo filosófico son capaces de guiar a un científico a descubrimientos sobresalientes que le adelantan a su tiempo. Sin embargo su falta de sintonía, digamos filosófica, con el resto de colegas (salvo Euler) hacía difícil que sus progresos fuesen apreciados.

Pero también estos principios filosóficos, como casi dos siglos después también le ocurriría a Einstein, hicieron que Lomonósov se metiese en callejones sin salida.

Gravedad.

Convencido en su cartesianismo de la mecánica corpuscular Lomonósov no terminaba de aceptar la gravedad Newtoniana y su acción a distancia porque sí. Empleó los últimos años de su vida en llevar a cabo sistemáticos experimentos con péndulos, rellenando cientos de páginas de libros de notas, en un intento inútil de encontrar un error en las ideas de Newton.

En su desconfianza de Newton, Lomonósov nunca usó el cálculo diferencial en sus textos, a pesar de tener una excelente formación matemática.  

lunes, 16 de abril de 2012

El rey filósofo o las diez características del sabio.



Los acontecimientos de estos últimos días en España (incluidas sus extensiones africanas, quien tenga oídos para oír que oiga) me han traído a la memoria uno de las ideas del hijo de Aristón y Perictione, el de las espaldas anchas. Curiosamente se trata de la idea que inspiró al ayatolá Jomeini la concepción general de cómo debería ser gobernada una república islámica: es el amante de la sabiduría, el filósofo (desde la perspectiva islámica chií esto es equivalente a los clérigos), el que debe ser elegido gobernante.

Efectivamente, desde el punto de vista platónico el “rey-filósofo” es la persona sabia que acepta el poder que le otorgan las personas que son suficientemente sabias como para elegir a un buen gobernante. Esta es la tesis de Sócrates en “La República”, que la mayor sabiduría que pueden demostrar las masas es la elección sabia de un gobernante, él mismo sabio.

Pero, ¿cómo reconocer a un hombre sabio en primer lugar? Existen cinco signos externos y cinco características de su forma de actuar para guiarnos.

Los 5 signos

En primer lugar, y siguiendo a Asimov, debemos acabar con la “excusa socrática”, es decir con asimilar la falta de conocimiento, malcitando a Sócrates (“solo sé que no sé nada”), con un signo de sabiduría. Los investigadores en ese campo de la psicología que algunos llaman psicología positiva definen la sabiduría como la coordinación del conocimiento y la experiencia, por una parte, con su uso deliberado para mejorar el bienestar (entendido como justicia, ausencia de conflicto, etc.) por otro. Con esta definición en mente consideran que hay cinco signos que caracterizan al humano sabio, a saber:
  • se conoce a sí mismo
  • posee conocimientos y experiencia
  • es sincero y directo con los demás
  • los demás le piden consejo
  • sus acciones son consistentes con sus creencias éticas

Si pensamos en alguien que consideramos sabio, a poco que reflexionemos nos daremos cuenta que cumple las características anteriores. Pero estaremos de acuerdo que estos cuatro signos parecen, en todo caso, condiciones necesarias pero no suficientes para poder calificar a una persona como sabia. Efectivamente, un religioso radical, por ejemplo, puede reunir estas condiciones y no sería considerado sabio por una mayoría fuera de su sistema de creencias. Es necesario, pues, fijarnos en cómo actúa.

Actuando sabiamente

A los sabios se recurre cuando hay problemas buscando consejo para solucionarlos. Y es ahí, en la resolución de problemas donde brilla la sabiduría. Una persona que reúna la 5 signos anteriores podremos decir que actúa sabiamente y, por tanto, es sabia, si sus acciones y consejos se caracterizan por:

  • una voluntad de buscar oportunidades de resolver posibles conflictos existentes
  • una voluntad de buscar el compromiso
  • un reconocimiento de los límites del conocimiento personal
  • una consciencia de que puede existir más de una perspectiva de un problema
  • una asunción del hecho de que las cosas pueden ponerse peor antes de mejorar

Somos nosotros los que ahora, armados con estas herramientas de contraste, debemos dedicarnos a analizar el comportamiento de los que nos gobiernan y a aquellos que aspiren a hacerlo para poder elegir sabiamente. Quien pueda elegir, se entiende...


viernes, 9 de marzo de 2012

El universo es como un gato: determinismo y teorías físicas


La mecánica cuántica es realmente imponente. Pero una voz interior me dice que aún no es la buena. La teoría dice mucho, pero no nos aproxima realmente al secreto del “viejo”. Yo, en cualquier caso, estoy convencido de que Él no tira dados.
Esta es la primera ocasión en la que Albert Einstein expresa su convicción de que el universo es determinista con la conocida analogía de “Dios no juega a los dados”. Aparece en una carta a su colega y amigo Max Born fechada el 4 de diciembre de 1926.

Para muchos físicos, filósofos y religiosos la irrupción de la mecánica cuántica y su interpretación supuso una liberación de las limitaciones que la mecánica newtoniana imponía a su forma de ver el mundo. Para otros supuso un terremoto de consecuencias indeseables. Los casos más llamativos sin duda son los de los físicos que contribuyeron a crearla, como el propio Einstein (efecto fotoeléctrico, paradoja Einstein-Podolsky-Rosen)  o Erwin Schrödinger (ecuación de onda), pero que no podían compartir las implicaciones no deterministas de esta teoría.

El determinismo está íntimamente relacionado no sólo con cómo funciona el universo en sí, sino que tiene implicaciones prácticas muy inmediatas: si todo está determinado, ¿qué responsabilidad moral tengo? Quizás por ello, muchos filósofos y religiosos abrazaron entusiasmados la propuesta de que en la raíz misma de todo lo que existe reina la indeterminación. Con el principio de indeterminación tanto unos como otros recuperaban el terreno perdido por el libre albedrío a manos de la teoría newtoniana y encontraban huecos para la moral, el alma y algunos dioses.

Y, sin embargo, un pequeño análisis muestra que todos aquellos que piensan que la mecánica cuántica abre las puertas al libre albedrío o que la física newtoniana es absolutamente determinista, se equivocan completamente. Invitamos al inteligente lector a explorar con nosotros la esencia del universo y los límites de nuestro conocimiento sobre ella a la luz de las distintos modelos físicos. Exigirá un pequeño esfuerzo, pero será gratificante o, al menos, eso pensamos.

martes, 6 de marzo de 2012

Lingüística de conjuntos


No todas las lenguas describen el mundo con igual precisión. Tomemos un ejemplo con el que todos los hispanohablantes que hemos estudiado alguna vez una lengua extranjera nos hemos topado y que es una pesadilla para los que intentan aprender español: el verbo “ser”. Para muchos no hispanohablantes las frases “Mónica está guapa” y “Mónica es guapa” son indiscernibles: sólo a través del contexto podrían distinguir una de otra.

Esta dificultad del español como segunda lengua es la misma que muchas personas experimentan cuando se enfrentan a las matemáticas. La riqueza expresiva de su lenguaje, la precisión en los términos y los distintos matices importantes de significado que es capaz de introducir se convierten en una auténtica barrera de entrada. Estamos convencidos de que un correcto aprendizaje de este lenguaje y un énfasis en su riqueza semántica facilitaría muchísimo la comprensión de las ideas matemáticas.

Y vamos a comprobar que no es nada difícil, de hecho es muy parecido a una gramática natural, riguroso pero muy intuitivo. Precisamente nos aproximaremos a él desde un punto de vista lingüístico. Y veremos que, a poco que nos pongamos a analizar, llegamos a un concepto fundamental (fundacional) de las matemáticas, el de conjunto, con una enorme fuerza expresiva y del que describiremos sus aplicaciones. Finalmente iremos más allá de las matemáticas, para encontrarnos de nuevo en un terreno familiar. Pero no llegaremos hasta donde lo hicieron algunos pedagogos a principios de los años 70, cuando la “nueva matemática” hizo que los niños supiesen teoría de conjuntos pero tuviesen dificultades para dividir por dos cifras.

De la misma manera que el español introduce la distinción “ser/estar” para lo que en inglés, por ejemplo, es “to be”, podríamos crear una lengua artificial en la que el “ser” español podría separarse en tres verbos con matices diferentes. Comprobémoslo con estos tres pares de frases:

Puedes continuar leyendo en la página 24 del Número 3 de Journal of Feelsynapsis (revista gratuita de divulgación científica; puedes leer online, decargarla para tu smartphone, o descargar un PDF de alta calidad).