Mostrando entradas con la etiqueta epistemología. Mostrar todas las entradas
Mostrando entradas con la etiqueta epistemología. Mostrar todas las entradas

lunes, 20 de mayo de 2019

¿Experto o cuñado? (II)

En uno de los primeros artículos que publicamos sobre epistemología rescatamos la definición de conocimiento recogida por Platón en su diálogo Teeto, a saber, «una creencia verdadera y justificada». El requisito de veracidad parece de suyo evidente; al fin y al cabo, lo que es falso no puede ser conocido. O, dicho de otra forma, solo se pueden saber cosas que son verdaderas. Respecto a la creencia, la idea que hay detrás es que solo podemos saber aquello en lo que creemos. Por último, la justificación es necesaria porque sin ella podríamos considerar conocimiento conclusiones a las que hemos llegado por azar. Por ejemplo, lanzamos una moneda al aire y decimos: «sé que va a salir cara». Si, efectivamente, sale cara la proposición es cierta pero nadie de nosotros diría que eso cuenta como conocimiento. Es, a lo sumo, una conjetura afortunada.

Sanzio, Raffaello. Scuola Di Atene.

Esta definición del saber es la más conocida y aceptada pero no es perfecta. En 1963 el filósofo Edmund Gettier observó que puede haber creencias justificadas y verdaderas que no son conocimiento. Ilustró su argumento con dos ejemplos:

In the first example, two men, Smith and Jones are up for a job promotion. Smith believes that Jones will get the job, and he believes that Jones has ten coins in his pocket. Because these two sentences involve the same person, Jones, these beliefs also lead to the belief that the man with ten coins in his pocket will get the job. Unbeknownst to Smith, he has ten coins in his own pocket too. When Smith gets the job, it seems fair to state that his belief that the man with ten coins in his pocket will get the job was correct. However, it seems strange to call this belief knowledge since Smith believed the person being referred to was Jones. So it seems that Smith’s belief was false.

[...] In the second example Gettier uses, Smith believes that Jones owns a Ford and he has good reasons for believing this. So, Smith goes ahead and constructs three statements after selecting three random places where his good friend Brown may be located. With any statement that is true, by adding the proposition “or” and a second statement, the new statement is also true. For example: “All unmarried men are bachelors” is true. “Martians exist” is not true. But “Either all unmarried men are bachelors or Martians exist” is true. By using the same logic in the previous example, Smith forms the following statements:

A:Either Jones owns a Ford, or Brown is in Boston.
B:Either Jones owns a Ford, or Brown is in Barcelona.
C:Either Jones owns a Ford, or Brown is in Brest-Litovsk.

Just as in the first example, it turns out that Smith is correct by accident. It turns out that Jones doesn’t own a Ford, instead the Ford Jones has given Smith a ride in was a rental. Brown is in Barcelona. Now, this would seem like a lucky guess, and once again, we would be hard-pressed to call this odd stroke of truth-generating luck knowledge.
Los ejemplos de Gettier se antojan extraños porque en nuestra vida cotidiana no hablamos así. No obstante, son lógicamente sólidos. De acuerdo con las leyes de la lógica, cuando utilizamos el conector «o» basta con que una de las partes sea cierta para que la proposición completa lo sea. Así, frases como «o Silvio Broca es una ameba o la Tierra es redonda» son verdaderas. La conclusión de este autor es que podemos llegar a creer de forma justificada algo que es falso y que la justificación basada en pruebas no elimina todos los casos en los que llegamos a saber por mera cuestión de suerte.

Si las creencias verdaderas y justificadas no son suficientes para calificarlas de conocimiento ¿qué más hace falta? Una posibilidad es que lo importante en realidad sea cómo hemos llegado a albergar dicha creencia:

Since Gettier shows that justified true beliefs fail to count as knowledge, philosophers continue to search for new ways of justifying human knowledge. One of the most prominent ways is to show that it’s the process of coming to know something that produces knowledge. If the process by which one perceives objects is reliable, then we can say it’s the reliability of the process that causes one to have knowledge. This position is called reliabilism.
Reliabilism attempts to explain knowledge in a way that accepts the limitations of human knowledge. It maintains that humans do make mistakes and that our perceptions can be flawed. Because humans are fallible, knowledge that requires certainty should be rejected. Instead, we should focus on the degrees to which our beliefs count as knowledge. For reliabilism, we might have certain knowledge of stuff like mathematics, but our knowledge of everyday interactions with the world should be judged by how reliable our beliefs are produced.
De acuerdo con esta posición filosófica, lo principal no son las pruebas sino la probabilidad de que la creencia sea cierta, y nuestra creencia estará justificada siempre y cuando hayamos llegado a ella a través de un método fiable, esto es, uno que tienda a producir creencias verdaderas (por ejemplo, el método científico). Si este requisito se cumple entonces podremos decir que sabemos algo.

¿Qué significa esto para nuestro cuñado? Significa que para saber no necesita pruebas o buenas razones, todo lo que se requiere es que crea que lo que dice es cierto y que haya llegado a creerlo a través de un mecanismo fiable. Si, verbigracia, leer el periódico o Yahoo Respuestas produjera creencias verdaderas nueve de cada diez veces entonces deberíamos reconocer que nuestro cuñado demuestra poseer conocimiento cuando se deleita repitiendo lo que ha leído ahí.

Sin embargo, no todo método fiable produce conocimiento. Aunque la astrología fuera fiable seguiría sin ser fuente de conocimiento como sí lo es el método científico. ¿Por qué? Porque solo este último está conectado con el mundo externo de forma causal:

Leonard Koppett reliably predicted the rise and fall of the stock market for eighteen out of nineteen years between 1979 and 1998. Using reliabilism, we might be tempted to say that his reliable ability to have predicted the future suggests he had some sort of knowledge about the future. The truth is, however, Koppett was a writer for Sporting News, and he based his predictions concerning the stock market on which league won the Super Bowl. He picked a random event and applied its outcome to an unconnected event, the stock market. Koppett’s beliefs were in no way connected to the stock market, neither causally nor otherwise. So, reliabilism concludes that he didn’t have knowledge.

From the point of view of reliabilism, knowledge results from being causally connected to the world through our reliable belief-forming senses. Predicting the future based on random sporting events is an impressive trick, but it’s not a skill. So, even though Koppett’s predictions were reliable they don’t count as knowledge.
Obviamente, el confiabilismo no es la panacea. Tal como explica Abraham Schwab, que un proceso sea fiable no significa que sea infalible. La falibilidad de nuestro proceso significa que no podemos obtener certezas sino únicamente cierta probabilidad de verdad. Así, algunas de nuestras creencias resultarán ser falsas pero a, cambio, esta postura nos permite creer más cosas de las que estaríamos justificados a creer si el requerimiento para el saber fuera tener certeza absoluta.

Continuará.

lunes, 6 de mayo de 2019

¿Experto o cuñado? (I)

Al estilo de los que hace Jorge Ponce en el programa La resistencia, hagamos un pequeño juego de adivinación. Las siguientes frases ¿son de un experto o de un cuñado?

  • Franco no fue un dictador fascista.
  • Hitler no fue un dictador, fue elegido por el pueblo.
  • El aroma de limón puede prevenir el cáncer.
  • El ladrillo (la inversión inmobiliaria) siempre sube.

Las respuestas correctas son: experto, cuñado, cuñado y experto

El dibujante Pedro Vera define lo que es un cuñado maravillosamente:

El cuñado es un ser perfecto, superior. Un ser de luz, un ente capaz de traspasar océanos con su sabiduría. Sabe de todo y puede opinar de lo que quiera, de cualquier tema que le preguntes. Y response con frases como: "yo tuve un profesor que...". Ese tipo de mierdas.
En nuestra disquisión de hoy trataremos solo este aspecto de tan patria figura, el epistemológico, dejando a un lado las muletillas («esto es como todo», «eso es así»), las frases hechas («diga melón», «¿cómo andamios?») y los superpoderes propios de este ser («eso lo consigo yo por la mitad de dinero»).

¿Cómo obtiene un cuñado su conocimiento? Tomando como ejemplo a mi propio padre, que bien podría protagonizar el libro de Pedro Vera, el cuñado se hace experto en cualquier tema a través de cualquier medio a su disposición: la radio, la televisión, el periódico, las redes sociales, el WhatsApp. Lo sé porque mi progenitor al menos tiene la decencia de citar sus fuentes: «ayer salió en el periódico», «han dicho en la tele», «¿no has visto el whatsapp que dice...?», y así siguiendo. También adquieren conocimientos a través de otros cuñados en sesudos debates a orillas de la barra del bar o su equivalente digital (los foros), así como por la tradición («esto es así de toda la vida») y la propia experiencia vital del individuo («siempre lo he hecho así y me ha funcionado bien»).

Después de un tiempo participando en un foro en el que los temas a discutir son los mismos una y otra vez me dí cuenta de que el cuñado utiliza un modelo simple de estímulo-respuesta, es decir, ante una afirmación concreta este ser responde con una contraria que ha visto, leído u oído en algún momento. Por ejemplo:

Foto de Omurden M. Sezgin
- Quieren prohibir los coches diésel y gasolina.
- Cuñado: ¡pero si los eléctricos contaminan más por la fabricación de la batería!

- Mi móvil va muy lento últimamente.
- Cuñado: eso es que tienes un virus.

- Estoy acatarrado
- Cuñado: toma antibióticos.

Etcétera.

Este comportamiento me recordó el experimento mental de la habitación china formulado por John Searle en 1980:

Searle [...] se imaginaba a sí mismo desempeñando el papel de un computador que está programado para responder preguntas sobre una historieta. El elemento crucial en la explicación de Searle es que tanto la historieta, como las preguntas, como los outputs de Searle, están en chino, un lenguaje que él no entiende. Él es capaz de «responder» a las preguntas solamente porque, junto con los símbolos chinos que contienen la historieta y las preguntas, ha recibido reglas enunciadas en inglés que le dicen cómo producir nuevas ristras de símbolos dependiendo de las ristras que encuentra en la historieta y en las listas de preguntas. Todo el asunto está diseñado tan inteligentemente que, mientras que Searle creía que estaba sólo manipulando símbolos y no sabía que está respondiendo a preguntas en chino sobre una historieta en chino, de hecho estaba produciendo un output perfectamente coherente que los hablantes nativos del chino considerarían auténtico.
Searle mantenía que en este experimento él se estaría comportando como alguien que entendiese chino cuando, en realidad, es una lengua que no comprende. Se limita, sencillamente, a seguir unas reglas para procesar las preguntas y producir las respuestas. Da el pego, pero no hay conocimiento real.

Un cuñado obra de igual manera: para cada aseveración produce una réplica (habitualmente la misma) en sentido contrario. Siendo así no parece difícil replicar un cuñado con un programa informático que responda siempre lo mismo ante ciertas afirmaciones. Convendrán conmigo en que un programa así no puede calificarse de inteligente. No entiende las frases de entrada ni las respuestas, simplemente lleva a cabo conjunto de instrucciones para buscar en una base de datos una contestación. ¿Podríamos distinguir a un cuñado de carne y hueso de un programa así mediante un test de Turing?

Igual que el programa, el cuñado en realidad no entiende las respuestas que da. No sabe en qué se basan, qué razonamientos o datos hay tras ellas o en qué contextos son ciertas, ni cuáles son sus matices o puntos débiles. Todo lo juega al naipe de la autoridad de su fuente, la cual probablemente haya olvidado.

Continuará.

lunes, 24 de agosto de 2015

Mala ciencia

Consultores, entrenadores, economistas, gurús de las relaciones personales o de la vida en general, consejeros de celebridades, asesores financieros, directores generales, comentaristas deportivos, tertulianos... como ya hablamos, abundan los expertos. Pueblan el espectro electromagnético y nos hacen llegar sus consejos (normalmente equivocados) a través de la televisión, la radio o internet. A la hora de defender sus argumentos suelen apelar a su experiencia personal, al éxito de su carrera o a un puñado de historias de gente que siguió sus consejos y logró un final feliz. Si se les interroga sobre sus fuentes de conocimiento, la respuesta varía según el asunto tratado. Un experto en felicidad puede recurrir a antiguos textos budistas. Un experto en finanzas puede invocar el nombre de grandes autoridades en la materia (algún premio Nobel, por ejemplo). Pero la mayor parte de ellos, en algún momento u otro, echan mano de la ciencia, ya sea en forma de estudios científicos o en palabras de algún académico o investigador. Y es que no hay nada como una pátina de ciencia para defender la solidez de nuestros argumentos:

La ciencia goza de una alta valoración. Aparentemente existe la creencia generalizada de que hay algo especial en la ciencia y en los métodos que utiliza. Cuando a alguna afirmación, razonamiento o investigación se le da el calificativo de «científico», se pretende dar a entender que tiene algún tipo de mérito o una clase especialidad de fiabilidad.
[...] Los anuncios publicitarios afirman con frecuencia que se ha mostrado científicamente que determinado producto es más blanco, más potente, más atractivo sexualmente o de alguna manera preferible a los productos rivales. Con esto esperan dar a entender que su afirmación está especialmente fundamentada e incluso puede que más allá de toda discusión.
Foto de Sergei Golyshev
Según la concepción popular, la ciencia se basa en hechos, afirmaciones sobre el mundo que pueden comprobarse directamente, verdades objetivas que todos hemos de aceptar. Además de eso, lo que hace especial a la ciencia es su método, el «método científico». Lo recordarán del colegio. A grandes rasgos, se empieza con una pregunta («¿por qué el cielo es azul?»), se formula una hipótesis, se desarrollan las consecuencias lógicas de la misma, se lleva a cabo un experimento para ponerla a prueba y se analizan los resultados. Si las pruebas obtenidas en el experimento contradicen la hipótesis es necesario desecharla y desarrollar una nueva. Si la confirman, se comprueban otras predicciones de dicha hipótesis. Una vez la hipótesis cuenta con suficientes pruebas a favor pasa a desarrollarse una teoría.

La calidad de la ciencia reside en los detalles, allí donde, según el dicho, habita el diablo. En cada paso del método científico se puede cometer un traspié y el libro de David H. Freedman titulado Wrong: Why Experts Keep Failing Us - and How to Know When Not to Trust Them contiene una buena lista de todo lo que puede salir mal. Para empezar, pueden cometerse errores en algo tan sencillo como recopilar los datos (al tomar la presión arterial de los sujetos de estudio o al medir la temperatura del océano o al calcular la contaminación del aire). A veces dichos errores nos obligan a tener que descartar observaciones, lo que introduce el problema de qué datos se descartan con razón y cuáles se desechan por un sesgo inconsciente. Terminada la toma de datos, a la hora de analizar los resultados los errores estadísticos son frecuentes.

No es fácil diseñar experimentos para probar ciertas hipótesis, por lo que los científicos a veces sustituyen una pregunta por otra más fácil de responder y acaban midiendo cosas que no importan. Por ejemplo, ante la pregunta «¿este medicamento cura el cáncer?» un estudio puede estar diseñado para determinar si dicho medicamento reduce el tamaño del tumor, ya que medir eso es mucho más sencillo que observar a una población durante años para determinar si los que tomaron el medicamento vivieron más. Por desgracia, el tamaño del tumor puede que no esté relacionado con la mortalidad del cáncer. Este uso de indicadores secundarios es bastante habitual y tiene su máxima expresión en los experimentos con animales. Siempre que se trate de un estudio con otra especie hay que esperar a los resultados con humanos ya que, por mucho que se nos parezcan, nada nos asegura que el resultado sea extrapolable.

Otro error bastante común es que los datos soporten la hipótesis pero que dicha hipótesis sea falsa en realidad y el efecto observado se deba a un tercer factor no contemplado. Por ejemplo, un estudio puede concluir que la gente que duerme menos de seis horas diarias tiene mayor probabilidad de ser obesa. Sin embargo, quizá la razón de que haya correlación entre ambas variables sea que la gente sana se preocupa tanto de hacer ejercicio como de comer y de dormir bien. Si esa fuera la explicación, no es de esperar que uno vaya a adelgazar a base de dormir más cada noche. Todos los tipos de estudio (observacional, epidemiológico, meta-análsis, doble ciego) están afectados por este problema en mayor o menor medida.

Algunos fallos no son tan inocentes y están relacionados con los incentivos a los que se enfrentan los investigadores. Como explica Gerry Carter en su artículo, los objetivos de la ciencia como tal y de quienes la practican no son los mismos. El éxito científico no equivale a éxito académico. Hacer ciencia de calidad (falsificable, repetible y correcta) no lleva automáticamente a ser influyente, reconocido y ascendido. A los científicos se les premia laboralmente por obtener resultados novedosos, revolucionarios y sorprendentes. Estos requisitos, unidos a la enorme competencia, reducen la calidad de la ciencia practicada. Al final, lo que es importante para un científico no es tanto la verdad como el demostrar que algo es cierto, pues eso es lo que necesita para conseguir una plaza en una universidad o dinero para investigación:

Most of us don’t think of scientists and other academic researchers as cheaters. I certainly don’t. What could motivate such surprisingly nontrivial apparent levels of dishonesty? The answer turns out to be pretty simple: researchers need to publish impressive findings to keep their careers alive, and some seem unable to come up with those findings via honest work. Bear in mind that researchers who don’t publish well-regarded work typically don’t get tenure and are forced out of their institutions. It’s an oppressive system and one that’s becoming more so.
Ante las presiones por obtener un resultado positivo, si un estudio no confirma una hipótesis es muy probable que acabe sin ver la luz del día, dado que no contribuye al avance de la carrera del científico. Esto perjudica a la ciencia porque el desarrollo de una teoría depende del conjunto de todos los datos, no solo de los favorables. Por otra parte, abundan quienes torturan los números hasta que les dicen lo que quieren, esto es, hasta que encuentran algo que apoye lo que querían demostrar. En otras ocasiones, un científico puede diseñar un experimento para poner a prueba su hipótesis («¿son más inteligentes las personas guapas?»), encontrarse con otro efecto diferente («no son más inteligentes pero sí más adineradas») y publicar el estudio como si su propósito inicial fuera probar esta última hipótesis (es lo que se conoce como mover los palos de la portería). A veces es una empresa privada la que financia la investigación, como cuando un fabricante de cerveza promueve un estudio que concluye que la cerveza no engorda. Proliferan las pruebas que indican que esta clase de experimentos motivados siempre encuentran lo que estaban buscando.

Por último, no hay que olvidar el fraude puro y llano. En ocasiones se crean datos de la nada o se ocultan algunos de ellos. Asimismo se publican estudios falsos o que nunca tuvieron lugar. Incluso ha habido casos de corrupción en el sistema de revisión por pares. Quienes detectan conductas reprobables no tienen incentivos para denunciarlo debido a que podrían perder su puesto de trabajo o su financiación. Además, uno debe llevarse bien con sus colegas si quiere ver su trabajo publicado.

La ciencia no es un proceso llevado a cabo en el vacío. Es obra de personas de carne y hueso sometidas a los mismos sesgos y limitaciones que el resto de nosotros. A los errores normales de un ser humano hay que sumarle el hecho de que los investigadores están sometidos a mucha competencia lo que, como ocurre en otras profesiones, puede derivar en malas conductas con tal de destacar o, simplemente, mantenerse a flote.

La gente digiere estos hechos de distinta manera. Algunos reniegan totalmente de la ciencia y suscriben (normalmente sin conocerlas) las tesis del filósofo Paul Feyerabend, quien sostenía que la ciencia no posee rasgos especiales que la hagan superior a otras ramas del conocimiento. Él veía la ciencia como la religión moderna y pensaba que desempeña la misma función que ha desempeñado el cristianismo en Europa durante los siglos pasados. Para estas personas, escépticos radicales y posmodernistas, todo es dogma y cada uno abraza el que le parece. Otros buscan en las seudociencias respuestas que la ciencia no tiene (o que sí tiene, pero no concuerdan con su visión del mundo). Finalmente, están quienes reconocen que la ciencia es una tarea ardua y, por ello, siempre tienen presente que no todos los estudios y artículos científicos valen lo mismo, que no todos los científicos son iguales, que la cantidad y calidad de pruebas a favor o en contra de una hipótesis es importante, que parte del conocimiento tiene fecha de caducidad y que la ciencia, en general, es un proceso paulatino de reducción de la incertidumbre y el desconocimiento.

lunes, 18 de mayo de 2015

La Roca (y II)

Política y economía son dos arenas especialmente propicias para ser defendidas por nuestro sistema de creencias. Incluso aunque se analicen todos los datos disponibles siempre cabe modificar ligeramente la pregunta o las definiciones de partida, entrar en detalles o matizar los fines para dar cabida a refutaciones, terreno fértil para los defensores de la construcción social del conocimiento. Además, es imposible separar de ambas la parte moral y resolverlas como problemas técnicos (los intentos de la era de los cincuenta de resolver la economía a base de ecuaciones y teoremas se antojan similares a aquellos que tuvieron lugar en los siglos XVIII y XIX destinados a resolver «la política»). En mi humilde opinión, es imposible proclamar que uno posee la certeza absoluta económica o política porque dispone de eso que llaman «la evidencia». Aceptemos pues –aunque sea a regañadientes– que en estas cuestiones las personas siempre defenderemos nuestras creencias frente a los hechos y sigamos adelante, preguntándonos ahora: ¿cómo de buenos (o malos) bayesianos somos en áreas más asépticas, allí donde la identidad social y la imagen propia no son cuestionadas?

Quizá recuerden algunos casos que ya mencionamos en historia de la ciencia en los que científicos de renombre dieron la espalda a los hechos: el físico Fred Hoyle rechazando la teoría del Big Bang y Ronald Fisher rebatiendo la correlación entre el tabaco y el cáncer. Claro que Hoyle y Fisher eran gigantes en sus respectivos campos de conocimiento y, como tales, podían usar su inteligencia y conocimientos para sembrar la duda razonable. Caso muy distinto es el de Enriqueta y Teleforo, padres primerizos que deciden no vacunar a su prole porque creen que las vacunas producen autismo.

Mucho se ha escrito este año sobre las vacunas, especialmente en medios anglosajones, ya que en Estados Unidos y el Reino Unido el número de progenitores que se niegan a inmunizar a sus hijos parece haber crecido bastante. Como seguramente ya sabrán, el movimiento antivacunas nació en 1998 cuando el médico británico Andrew Wakefield publicó en The Lancet los resultados de un estudio según el cual la administración de la vacuna triple vírica provocaba autismo. Todas las investigaciones posteriores han refutado tal asociación y Wakefield fue despojado de su licencia médica acusado de fraude, a pesar de lo cual poco más de la mitad de los estadounidenses consideran las vacunas seguras. ¿El resultado? Seiscientos cuarenta y cuatro casos nuevos de sarampión en Estados Unidos el año pasado, el triple que el año con más casos que le sigue en la serie.

Una cosa está clara de los antivacunas: si supieran quién fue Thomas Bayes y dónde está enterrado, viajarían hasta allí para mear sobre su tumba. Recuerden que, según este teorema, cuando uno conoce nuevos datos debe ajustar su creencia en la hipótesis en una cantidad que se puede calcular matemáticamente. Pues bien, ¿qué ocurre cuando a los antivacunas se les presentan pruebas de la seguridad y los beneficios de la inmunización? Que disminuye aún más su intención de vacunar a sus hijos:

The researchers showed participants information from the Center for Disease Control (CDC), which was designed to debunk the myth that the flu vaccine can give you flu. This resulted in a fall in people's false beliefs but, among those concerned with vaccine side-effects, it also resulted in a paradoxical decline in their intentions to actually get vaccinated, from 46 per cent to 28 per cent. The intervention had no effect on intentions to get vaccinated amongst people who didn't have high levels of concerns about vaccine side effects in the first place.
[...] This is not the first time that vaccine safety information has been found to backfire. Last year the same team of researchers conducted a randomised controlled trial comparing messages from the CDC aiming to promote the measles, mumps and rubella (MMR) vaccine. The researchers found that debunking myths about MMR and autism had a similarly counterproductive result - reducing some false beliefs but also ironically reducing intentions to vaccinate.
Por lo visto, enfrentar a una persona con los datos puede hacer que el tiro nos salga por la culata. Lo paradójico es que la probabilidad de vacunación descendió aun cuando los sujetos sí corrigieron parcialmente sus falsas creencias sobre las vacunas.

Al parecer, el teorema de Bayes solo puede funcionar en ordenadores, no en cerebros humanos. Las personas aplicamos el razonamiento motivado en todas las esferas de la vida; allí donde nos lleven la contraria activaremos nuestras defensas. Brendan Nyhan es un profesor de Darmouth especializado en el estudio de las percepciones erróneas en política y sanidad. Es también coautor del estudio citado anteriormente. Según él, no hay ninguna diferencia en la forma en que las personas razonamos acerca de las vacunas, los edulcorantes, la política, el gazpacho o cualquier otra controversia:

People feel passionately, they are not inclined to hear contradictory messages, and there are all sorts of myths circulating. The way people reason about vaccines, it's the same as the way people reason about other controversial topics.
La manera en que razonamos sobre asuntos polémicos es fácil de describir: cuando los datos nos dan la razón, invocamos la evidencia; cuando contradicen nuestra postura, en lugar de rectificar les damos la espalda y salimos corriendo:

[R]esearch suggests that the mere prospect of a factual threat leads us to downplay how much our belief depends on such evidence at all. We become attracted to other, less falsifiable reasons for believing.
[...] When the facts were on their side, they rated the issues [...] as a matter for evidence to decide; when the facts were against them, they saw it as more a matter of opinion.
Es decir, intentamos escapar del territorio de los hechos para adentrarnos en el de las creencias y las opiniones, allí donde no hay fundamentaciones últimas y, por tanto, es mucho más fácil hacerse fuerte frente al contrario, evitando de ese modo llegar a conclusiones no deseadas (el énfasis es mío):

Of course, sometimes people just dispute the validity of specific facts. But we find that people sometimes go one step further and [...] they reframe an issue in untestable ways. This makes potential important facts and science ultimately irrelevant to the issue.
[...] [W]hen people’s beliefs are threatened, they often take flight to a land where facts do not matter. In scientific terms, their beliefs become less “falsifiable” because they can no longer be tested scientifically for verification or refutation.
Valve, la empresa de desarrollo de videojuegos, pone a disposición de sus nuevos empleados una guía en la que se explica, entre otras cosas, cómo está organizada la empresa y qué se espera de los trabajadores. Bajo el epígrafe What if I screw up? hablan de los errores y sus consecuencias, de la forma correcta y la incorrecta de equivocarse, y de cómo actuar en caso de meter la pata. Termina esta sección con una frase que se me ha quedado grabada y por la que todos –no solo los empleados de Valve– deberíamos regirnos:

Never ignore the evidence; particularly when it says you’re wrong.
Pero, como ya saben, no vivimos en deberialandia, y esconder los hechos incómodos es una tentación demasiado grande. Hete aquí una imagen que apareció en Reddit en relación con cierta polémica en torno al juego The Elder Scrolls V: Skyrim desarrollado por la casa (clic para ampliar):


Al parecer, algún empleado no se leyó esa parte de la guía y decidió que lo mejor era eliminar de la imagen la calificación tan negativa que los jugadores habían otorgado en su descontento por las decisiones de la empresa. Oh, the irony!

lunes, 4 de mayo de 2015

Según un estudio

Pepsi ha anunciado recientemente que va a eliminar el aspartamo de sus bebidas light en Estados Unidos y sustituirlo por sucralosa. Al parecer, la presencia de aspartamo es la razón principal por la que los norteamericanos consumen cada vez menos bebidas sin azúcar, lo que está afectando a las ventas. Este edulcorante ha estado rodeado de polémica desde su aprobación en 1974, proceso que se percibió como plagado de irregularidades, entre las que se incluían puertas giratorias y ocultación de pruebas. Años más tarde, en 1996, un reportaje de 60 minutos trasladó al público general los resultados de un estudio que identificaba este aditivo como la causa de tumores en ratones.

Lo cierto es que después de haber sido estudiado durante más de treinta años no se han encontrado pruebas sólidas de que el aspartamo sea dañino para los humanos. De hecho, dos recientes revisiones de todos los estudios disponibles han concluido que, en los niveles de consumo actuales, es un edulcorante seguro. Aún así, no es difícil encontrar sitios web dedicados a la lucha contra este aditivo.

El aspartamo es solo una de muchas sustancias químicas marcadas de por vida por el resultado de un trabajo voceado por los medios de información de masas. Al igual que ocurre con las vacunas, basta con un único estudio (cuyo método y diseño no tienen ni siquiera que ser sólidos) para sembrar la duda y asentar en el imaginario colectivo la idea de que la sustancia X produce la terrible Y, y que es algo a evitar. No es raro que todo ello venga acompañado del enfrentamiento de grupos partisanos surgidos como hongos y la creación de teorías conspiranoicas.

Aquí concurren dos problemas. El primero es la validez de los periódicos y los telediarios como fuente de información científica. Como escribe Ben Goldacre:

El mayor problema de las noticias sobre ciencia es que se nos presentan sistemáticamente vacías de evidencia científica. ¿Por qué? Porque los periódicos piensan que ustedes no entenderán la «parte científica» del asunto, por lo que todas las noticias sobre ciencia han de pasar previamente por un proceso de reducción de su nivel de dificultad, en un desesperado intento por seducir y atraer a los ignorantes, precisamente, aquellas personas a quienes no interesa la ciencia para nada (tal vez porque los periodistas creen que es buena para todos nosotros y que, por lo tanto, debería democratizarse).

[...] ¿Cómo sortean los medios el problema de su incapacidad para proporcionarnos la evidencia científica propiamente dicha? A menudo, lo hacen recurriendo a figuras de autoridad (un recurso que constituye la antítesis misma de la esencia de la ciencia) y tratándolas como si de curas, políticos o figuras paternas se tratara. «Un grupo de científicos ha dicho hoy que…» «Unos científicos han revelado que…» «Los científicos han advertido que…» Si al periódico o al espacio radiotelevisivo de turno le interesa introducir un poco de equilibrio, nos mostrarán a dos científicos en desacuerdo, aunque sin explicación alguna de por qué (un método cuya más peligrosa versión pudimos ver en acción cuando se extendió el mito de que los científicos estaban «divididos» en torno a la seguridad de la vacuna triple vírica): un científico «revela» algo y, entonces, otro lo «cuestiona». Más o menos, como si fueran caballeros Jedi.
Como ocurre tantas veces, si uno quiere información de calidad debe olvidarse de la prensa general y acudir a las publicaciones especializadas. De esa manera podremos saber qué se midió y cómo, así como lo que se descubrió, y no tendremos que fiarnos ciegamente de las conclusiones que el periodista de turno ha copiado y pegado directamente de la nota de prensa.

Los medios de comunicación son, por otro lado, víctima fácil del sesgo de publicación, esto es, el hecho de que tienden a publicarse únicamente los estudios que muestran un resultado positivo. Como explica magistralmente la viñeta de XKCD, este sesgo lleva a que se difundan en los medios conclusiones absurdas cuya veracidad es asumida por la población general prima facie. Claro que lo contrario también ocurre: a veces son los estudios que no lograron aparecer en prestigiosas revistas con revisión por pares los que se llevan directamente a la prensa para hacerse oír, ya que estos últimos son incapaces de filtrar nada basándose en la calidad del estudio.

Por desgracia, en esto de la ciencia hay más problemas aparte de los periodistas. Hacer ciencia es un proceso enteramente humano y, como tal, no es algo prístino llevado a cabo en un vacío ideal libre de pasiones, sesgos o instintos. La calidad del método científico depende de multitud de detalles que pueden pasarse por alto, bien por negligencia, bien por interés.

Lamentablemente, una de las industrias que más diligente debería ser en este sentido es la que más comportamientos reprobables exhibe. Les hablo de las empresas farmacéuticas. Estas empresas, por ejemplo, publican los resultados de los estudios que dan un resultado positivo, pero ocultan los que muestran que su medicina no es mejor que el placebo o el fármaco equivalente ya disponible. Las nuevas moléculas se estudian en poblaciones no representativas, pacientes ideales o atípicos, o personas que no serán los consumidores finales (por ejemplo, se prueban en personas sanas de países del tercer mundo medicamentos para enfermedades típicas de los países industrializados, como la diabetes). En sus estudios, estas compañías comparan el medicamento que están desarrollando con la peor alternativa posible, o con la mejor alternativa aplicada en dosis incorrectas. Interrumpen los ensayos clínicos en cuanto se atisba algún resultado positivo, aún cuando ello ocurra mucho antes de la fecha prevista de fin del mismo, con lo que se ocultan posibles efectos secundarios a largo plazo. Se recluta a poca gente para los estudios, aumentando así las posibilidades de obtener un resultado positivo simplemente por azar. Finalizado el estudio, los datos se masajean o torturan de mil maneras hasta conseguir una conclusión favorable. Y así siguiendo. El lector interesado puede consultar una buena lista de prácticas discutibles en el libro de Ben Goldacre dedicado a este tema.

Pero la medicina no es la única disciplina aquejada de ciertos males en su aplicación del método científico. La psicología, verbigracia, está afectada por el sesgo WEIRD, a saber, el hecho de que del sesenta al noventa por ciento de estudios se realiza en sujetos «western, educated, and from industrialized, rich, and democratic countries», a pesar de que estos representan únicamente un octavo de la población mundial. Y las ciencias sociales en general viven bajo la duda del problema de la replicación, una crisis de confianza surgida de los fallos obtenidos al tratar de replicar los resultados de una investigación dada en experimentos similares. En 2008, por ejemplo, Simone Schnall y sus colaboradores concluyeron en su estudio que la dureza de los juicios morales de las personas cambiaba según las sensaciones de limpieza o suciedad de los individuos, de manera que si –entre otras cosas– los sujetos del estudio se lavaban las manos antes de emitir un juicio moral, este resultaba ser menos severo. Sin embargo, David Johnson, Felix Cheun y Brent Donnellan repitieron el experimento y no encontraron dicho efecto. Este es solo uno de los estudios que aparecían en un número especial (les dejo un enlace alternativo por si no funciona el anterior) de la revista Social Psychology publicado el año pasado en el que se intentaron replicar veintisiete hallazgos importantes en psicología social. En esta misma línea, recientemente se han publicado los primeros resultados del estudio más ambicioso de este tipo, en el que se intentaban replicar los hallazgos de cien estudios de psicología. Los datos preliminares no son muy halagüeños.

En realidad, la «crisis de la replicación» no es específica de las ciencias sociales. Un célebre artículo de John P. A. Ioannidis publicado en 2005 aseguraba que la mayoría de los resultados publicados en medicina son falsos:

In 2005, an Athens-raised medical researcher named John P. Ioannidis published a controversial paper titled “Why Most Published Research Findings Are False.” The paper studied positive findings documented in peer-reviewed journals: descriptions of successful predictions of medical hypotheses carried out in laboratory experiments. It concluded that most of these findings were likely to fail when applied in the real world. Bayer Laboratories recently confirmed Ioannidis’s hypothesis. They could not replicate about two-thirds of the positive findings claimed in medical journals when they attempted the experiments themselves.
De ahí que sea tan importante realizar varias veces el mismo experimento, pues solo de esa manera podemos alcanzar cierto nivel de confianza en el resultado obtenido. En palabras de Karl Popper:

Only when certain events recur in accordance with rules or regularities, as is the case with repeatable experiments, can our observations be tested — in principle — by anyone. We do not take even our own observations quite seriously, or accept them as scientific observations, until we have repeated and tested them. Only by such repetitions can we convince ourselves that we are not dealing with a mere isolated ‘coincidence’, but with events which, on account of their regularity and reproducibility, are in principle inter-subjectively testable.
Con un solo estudio puede demostrarse casi cualquier cosa, y Google puede llevarnos a donde queramos. Para la mayoría, buscar pruebas significa poner en el buscador lo que queremos encontrar, como aquella amiga mía que introdujo la frase «la cerveza no engorda» para encontrar algo con lo que sostener su convencimiento. Esa es, obviamente, la forma errónea de actuar, pues lo importante a la hora de tomar una decisión es revisar todas las pruebas disponibles:

[Y]ou have to interpret a literature, not a single study. The results of one lab or one study can be erroneous. When decades have produced hundreds of studies on a question, the cherry pickers will always have a lot to choose from. That is why systematic reviews are necessary, and it is also necessary to understand the strengths and weaknesses of each type of research.
La imagen que ilustra este artículo es el logotipo de Cochrane Collaboration, una organización internacional e independiente de académicos voluntarios sin ánimo de lucro que elabora y publica revisiones sistemáticas de estudios médicos. Este logotipo es un diagrama de bosque de un metaanálisis realizado en su momento sobre la administración de corticoesteroides en bebés prematuros. Cada línea horizontal representa un estudio. Cuanto más larga es esta línea, más incierto fue el resultado del estudio. Si la línea se sitúa a la izquierda de la línea vertical significa que los esteroides fueron mejores que el placebo; si se sitúa a la derecha, significa que los esteroides funcionaron peor. La posición del rombo indica la respuesta obtenida del conjunto de todos los estudios. En este caso, dicho resultado muestra una reducción de entre el treinta y el cincuenta por ciento del riesgo de muerte del bebé prematuro cuando se le administran los esteroides. Hasta que no se publicó esta revisión en 1989 muchos bebés murieron al desconocer los óbstetras la efectividad de dicho tratamiento.

Sería maravilloso que existieran diagramas de bosque al alcance de la mano para cualquiera de nuestras preocupaciones, ya sean los edulcorantes, las vacunas, las ondas de radiofrecuencia, los transgénicos, el fracking o cualquier otro asunto importante. Actualmente existe un creciente movimiento a favor de la política basada en pruebas, el cual trata de llevar el método de investigación clínico a otras áreas, como las ciencias sociales. Desgraciadamente, como hemos hablado en varias ocasiones, es difícil que tenga un gran efecto. Siempre se pueden poner en duda las motivaciones de quien lo elabora, el método y las compañías que hay detrás. Y siempre nos toparemos con actitudes como la de Janet Starr Hull, la responsable de www.sweetpoison.com: «I will never accept the news of aspartame safety».

lunes, 6 de abril de 2015

¿Saldrá el sol mañana?

Saber si el sol volverá a alzarse mañana sobre el horizonte es una cuestión sencilla en su planteamiento pero muy difícil de responder. Al fin y al cabo, el mero hecho de que así haya sido todos los días de nuestra vida no garantiza que mañana vuelva a ocurrir. Recuerden el pollo de Russell, quien ve en el humano a un benefactor que le alimenta todos los días hasta que una mañana, claro está, le retuerce el pescuezo. David Hume observó que somos esclavos de nuestras expectativas: estamos acostumbrados a que unas cosas sucedan a otras. Por ejemplo, si lanzamos una bola de billar contra otra esperamos que esta última se mueva. Sin embargo, tal como señaló el filósofo escocés, cuando vemos las dos bolas chocar lo que percibimos son dos sucesos que se siguen en el tiempo, no que el segundo suceso ocurra a causa del primero. Dado que no podemos percibir la causa, no podemos estar completamente seguros de que el segundo suceso vaya a presentarse siempre que tenga lugar el primero:

Hume creía que no es posible alcanzar una certeza absoluta en nada que tenga como único fundamento las creencias tradicionales, el testimonio personal, la observación de una relación habitual o la concatenación de la causa y el efecto. Lo que Hume venía a afirmar, en resumen, era que sólo es posible confiar en aquello que la experiencia nos enseña.
[...] Hume argumentaba que algunos objetos se asociaban constantemente con otros. Sin embargo, el hecho de que los paraguas y la lluvia fuesen elementos que se dieran juntos no significaba que la causa de la lluvia residiera en los paraguas. Del mismo modo, la circunstancia de que el sol se hubiese elevado miles de veces sobre el horizonte no garantizaba que volviera a hacerlo al día siguiente. [...] Y dado que rara vez podemos tener la seguridad de que una determinada causa vaya a ejercer un particular efecto, debemos contentarnos con buscar únicamente las causas y los efectos probables.
En consecuencia, ya que nos es imposible saber con certeza si el sol saldrá mañana o no, predecir que no lo hará no es menos racional que predecir que lo hará.

Si es la primera vez que se topan con estos conceptos de epistemología tal vez todo ello les resulte un tanto extraño o demasiado sutil, y quizá estén pensando para sus adentros que el sol probablemente saldrá mañana. La palabra clave aquí es «probablemente». Al usarla reconocemos que el mundo es intrínsecamente incierto y, por ello, es posible albergar distintos grados de certeza. Podemos estar «muy seguros» de que el sol saldrá mañana o «poco seguros» de que nuestro equipo favorito ganará  la liga.

El reverendo Thomas Bayes concibió la racionalidad como una cuestión probabilística. Su «ensayo encaminado a la resolución de uno de los problemas que plantea la doctrina de las probabilidades», publicado póstumamente por la Royal Society en 1763 gracias a Richard Price, trataba sobre cómo formulamos creencias probabilísticas acerca del mundo cuando nos encontramos con nuevos datos. Era toda una declaración sobre la manera en que aprendemos acerca del universo: a través de la aproximación, acercándonos más y más a la verdad según vamos reuniendo más pruebas. En esencia:

La regla de Bayes contradice la arraigadísima convicción de que la ciencia moderna requiere objetividad y precisión. El teorema de Bayes permite valorar una creencia, y nos indica que no sólo es posible adquirir conocimiento aunque nos falten datos o éstos resulten inadecuados, sino que da en añadir que el saber puede obtenerse partiendo de aproximaciones e incluso de la ignorancia.
No pretendo explicar con toda claridad aquí la regla o teorema de Bayes (teorema que, en justicia, debería llevar el nombre de Pierre-Simon Laplace, quien la descubrió de forma independiente y la desarrolló hasta darle la forma en que hoy la utilizamos), así que me saltaré el formalismo matemático. Solo diré –simplificando mucho– que nos permite calcular la probabilidad de que una hipótesis sea cierta dada la ocurrencia de un evento. Un caso típico es el de las pruebas médicas. Por ejemplo: ¿cuál es la probabilidad de que una mujer de cuarenta años tenga cáncer de mama sabiendo que su mamografía ha dado positivo? Aplicando el teorema de Bayes obtenemos que es de tan solo un diez por ciento (el lector puede consultar los cálculos detallados en el libro de Nate Silver o admitir sin dudar que este resultado es correcto). Esa es la razón, dicho sea de paso, de que las mamografías rutinarias se recomienden solo a mujeres mayores de cincuenta años.

El punto que me interesa destacar de la regla de Bayes es que nos permite computar exactamente cuánto debemos modificar nuestro grado de creencia en una hipótesis según vamos atesorando pruebas que la soportan o la contradicen:

Por ejemplo, las probabilidades asignadas por un jugador a cada caballo de una carrera estará condicionada por el conocimiento que tenga el jugador sobre la forma de cada caballo en el pasado. Aún más, dichas probabilidades estarán sujetas a cambio a la luz de nuevas pruebas, si, por ejemplo, encuentra a su llegada al hipódromo que uno de los caballos está sudando profusamente y parece claramente enfermo. El teorema de Bayes prescribe cómo se han de modificar las probabilidades a la luz de pruebas nuevas.
Es posible visualizar esta variación. Los gráficos siguientes muestran cómo iría cambiando nuestra creencia de que una moneda está trucada según vamos haciendo lanzamientos de la misma y van saliendo caras y cruces:


Fuente: elaboración propia

Fuente: elaboración propia

El primer gráfico corresponde a doscientos lanzamientos de una moneda no trucada, y el segundo a cien lanzamientos de una moneda trucada en la que sale cara en proporción 2:1. Obsérvese cómo se ajusta la creencia al alza o a la baja con cada nuevo lanzamiento y cómo –dependiendo de la hipótesis que se quiera comprobar– se necesita un mayor número de pruebas para alcanzar el mismo grado de confianza.

¿Y qué decir de la pregunta que da título a esta entrada, la de si saldrá el sol mañana? Pues sucede que basta verlo surgir del horizonte cada día durante tres semanas para alcanzar un alto grado de confianza en que mañana volverá a ocurrir:

Fuente: elaboración propia


A pesar de haber aburrido probablemente a muchos lectores con ella, lo cierto es que la regla de Bayes tiene una importancia capital en nuestras vidas. A lo largo de la Historia ha servido para encontrar una bomba de hidrógeno perdida y varios submarinos estadounidenses y rusos; ha ayudado a demostrar que el tabaco produce cáncer de pulmón y que un alto nivel de colesterol en sangre es una de las causas del infarto. Hoy día, la regla de Bayes filtra el correo basura de nuestras bandejas de entrada y se utiliza con éxito para predecir el resultado de elecciones presidenciales. Las compañías de publicidad la emplean en redes sociales para saber si nuestras reacciones a sus productos y servicios son positivas o negativas, mientras que las propias redes sociales (Facebook, Twitter, etcétera) la utilizan para, por ejemplo, determinar nuestro sexo automáticamente a partir de lo que escribimos en ellas y poder personalizar así la publicad que nos muestran.

Dejando a un lado estas utilidades prácticas, lo interesante del marco bayesiano es su proposición de racionalidad. Como escribe Sharon Bertsch McGrayne:

Constituye una lógica que permite razonar en el amplio espectro vital que asienta en las zonas grises situadas entre la verdad absoluta y la completa incertidumbre. Al interrogarnos sobre algo, es muy frecuente que la información con que contemos no represente sino una pequeña fracción de toda la que existe. Sin embargo, todo el mundo desea poder realizar predicciones basadas en nuestras experiencias pretéritas, y lo cierto es que acostumbramos a cambiar nuestros puntos de vista al adquirir nueva información.
La perspectiva bayesiana nos hace ver que un agente racional, aunque parta de la más absoluta ignorancia, puede obtener conocimiento si corrige sus creencias a medida que va encontrando pruebas. Pero, como hemos hablado muchas veces, para una persona ese es un gran si.

lunes, 21 de abril de 2014

No hay mayor ciego

A primera vista cabría pensar que el remedio para la ilusión de conocimiento sería poner a prueba nuestro saber y, en caso de detectar lagunas o errores, aprender los hechos. Puede que eso funcione con seres lógicos y racionales pero desde luego no sirve con seres humanos. Recuerdo un desayuno en la oficina, hace ya algún tiempo, en el que comenté que, generalmente, las mujeres toleran peor el dolor que los hombres. No estaba expresando una creencia sino algo que había leído en un libro escrito por el cirujano Atul Gawande. A la única chica allí presente (que defendía la tesis contraria) aquello no le gustó, y me espetó una frase que a menudo me viene a la mente: «cómo tengo que decirte que no te creas todo lo que pone en los libros esos que lees». Rememoré esta escena allá por noviembre cuando encontré la misma información en otro libro «de esos que leo». En The Sports Gene David Epstein escribe:
Foto de troita_<><

«The idea that women are more pain tolerant than men because they go through childbirth is a myth contradicted by every study done on the topic. Women are more sensitive to pain and much more likely to be chronic pain patients. Women do, however, become less sensitive to pain as they approach childbirth.»
Es fácil encontrar algunos de esos estudios con una búsqueda simple en Google Scholar, si bien las razones de tal diferencia no parecen estar claras todavía (puede deberse a diferencias biológicas, culturales o psicológicas). En cualquier caso, los datos de los que disponemos actualmente muestran que, por lo general, las mujeres son más sensibles al dolor excepto durante las últimas semanas de embarazo.

En 1985 Amos Tversky, junto con sus estudiantes Thomas Gilovich y Robert Vallone demostraron que no existe tal cosa como un jugador «en racha» en el baloncesto, esto es, el acierto o fallo en el lanzamiento de un tiro libre no depende de si el anterior entró o no:
«In basketball, as in many sports, a player having consecutive successes is said to be on fire, and everyone involved – the player himself, his opponent, his teammates, fans and referees – can feel in their bones that he is on a hot streak. Gilovich et al.’s numbers proved that this feeling is simply and absolutely dead wrong. In fact the streaks that shooters have during games or in practice are identical to the sequences that arise based simply on the player’s average rate of making baskets. So, for a player who hits 50 per cent of his shots, his pattern of makes and misses will be identical to the runs of heads and tails that arise when flipping a coin.»
La respuesta de los aficionados y los profesionales de ese deporte a su trabajo fue de incredulidad y de encogimiento de hombros en general (ibídem):
«Even though the research is straightforward and the findings have been replicated a number of times, the paper created a furore in basketball circles – everyone who’s anyone just ‘knows’ that guys ‘get into a rhythm’ – and the paper’s findings continue to be debated by sports fans and analysts the world over. People just did not want to believe the study’s results.
Gilovich is sanguine about the reception his work received, even from basketball greats like Red Auerbach. Auerbach, voted the greatest coach in NBA history and an icon for the team Gilovich supports, the Boston Celtics, was unimpressed with the study. ‘So he made a study,’ he replied laconically. ‘I couldn’t care less.»
Por su parte, Richard Thaler y Daniel Kahneman mostraron que inversores y asesores financieros son víctimas de la ilusión de competencia: sus buenos o malos resultados son fruto del azar, no de su destreza. Así describe Kahneman lo que ocurrió (mejor dicho, lo que no ocurrió) tras presentar sus conclusiones a la firma financiera cuyos datos había analizado:
«Our message to the executives was that, at least when it came to building portfolios, the firm was rewarding luck as if it were skill. This should have been shocking news to them, but it was not. There was no sign that they disbelieved us. How could they? After all, we had analyzed their own results, and they were sophisticated enough to see the implications, which we politely refrained from spelling out. We all went on calmly with our dinner, and I have no doubt that both our findings and their implications were quickly swept under the rug and that life in the firm went on just as before. The illusion of skill is not only an individual aberration; it is deeply ingrained in the culture of the industry. »
Gilovich, Thaler y Kahneman fueron recibidos con indiferencia, aunque podía haber sido peor. Según una leyenda Pitágoras, el ilustre matemático que describió el universo en términos de números racionales, condenó a morir ahogado a su discípulo Hippasus de Metaponto tras haberle mostrado este el número irracional √2. «El padre de la lógica y del método científico» –escribe Simon Singh–, «recurrió a la fuerza antes que admitir que estaba equivocado».

La historia de la ciencia está plagada de ejemplos de esa resistencia humana a aceptar los hechos contrarios al credo personal o la doctrina común. Cuentan que el filósofo Giulio Libri se negó a mirar por el telescopio de Galileo por una cuestión de principios. En aquel tiempo los aristotélicos se negaban a aceptar que lo que se veía a través del telescopio fuera real, imaginándose que eran artefactos producidos por las lentes. También la Iglesia católica había definido su cosmología a partir de un conjunto de axiomas y, por tanto, determinado de antemano que lo que se veía a través de ese aparato no existía en realidad. Todos sabemos cómo acabó Galileo. Varios siglos después el astrónomo inglés Fred Hoyle, quien acuñó sin querer el término Big Bang, murió en 2001 sin haber aceptado dicha teoría, sosteniendo en su lugar la validez de sus teorías alternativas del Estado Estacionario y, posteriormente, el Estado Casi-Estacionario. Así pues, incluso para los científicos, cuya honestidad intelectual se da por supuesta, es difícil cambiar de paradigma. Como decía Max Planck «una importante innovación científica raramente se impone convenciendo gradualmente y convirtiendo a sus oponentes: no sucede muchas veces que Saulo se convierte en Pablo. Lo que sucede es que sus oponentes se van muriendo poco a poco y que la nueva generación se va familiarizando desde el principio con las nuevas ideas».

Si ese es el panorama para científicos de sobradas capacidades intelectuales imagínense lo que ocurre con quienes no nos dedicamos a la ciencia. Es una cuestión de higiene mental el no creer a pies juntillas lo que cualquiera publica en internet, lo que pone en un libro, lo que dice un solo número estadístico o la conclusión de un estudio aislado. Pero hay una gran diferencia entre el sano escepticismo intelectual y el hacer caso omiso de los hechos que no encajan con nuestra visión del mundo. El problema es que, según nos alejamos de la certeza matemática, cuyos teoremas demostrados son ciertos hasta el fin de los tiempos, y nos acercamos a campos del saber donde los hechos se definen según la cantidad de pruebas a favor (o ausencia de pruebas en contra), cada vez es más fácil dar con justificaciones plausibles que disminuyan el peso de la evidencia, o encontrar datos que sostengan la postura contraria. Como bien dice Jonathan Haidt:
«[F]or nonscientists, there is no such thing as a study you must believe. It’s always possible to question the methods, find an alternative interpretation of the data, or, if all else fails, question the honesty or ideology of the researchers. And now that we all have access to search engines on our cell phones, we can call up a team of supportive scientists for almost any conclusion twenty-four hours a day. Whatever you want to believe about the causes of global warming or whether a fetus can feel pain, just Google your belief. You’ll find partisan websites summarizing and sometimes distorting relevant scientific studies. Science is a smorgasbord, and Google will guide you to the study that’s right for you.»
Sé que ninguna cantidad de estudios científicos perfectamente diseñados y ejecutados haría que mi prima se bajara del carro, algo que indicaba claramente el tono de indignación de su reproche. Cuando estamos seguros de tener razón y nos enfrentamos a pruebas contrarias a nuestro marco de creencias (ya sean convicciones sobre cómo es o cómo debería ser el mundo, ideas políticas, reglas morales o aquello que pensamos que sabemos), los marcos se mantienen y las pruebas se desechan (ibídem Kahneman):
«Facts that challenge such basic assumptions—and thereby threaten people’s livelihood and self-esteem—are simply not absorbed. The mind does not digest them. This is particularly true of statistical studies of performance, which provide base-rate information that people generally ignore when it clashes with their personal impressions from experience.»
El cerebro es, sin duda alguna, un órgano misterioso y maravilloso. Comienza a trabajar en el momento en que nos levantamos por la mañana y no se detiene hasta que nuestras creencias se ven amenazadas.

lunes, 16 de septiembre de 2013

El hombre desactualizado

Todo lo que sabemos tiene fecha de caducidad. A quienes fuimos a EGB nos enseñaron en la escuela que había 103 elementos en la tabla periódica; los que no hayan tocado la química desde la aquel entonces ignorarán que el número actual es 118 . Los planetas ya no son nueve, sino ocho, dado que Plutón salió de la lista en 2006. La población mundial ha pasado de los 5.900 millones de personas que me dijeron de pequeño a más de 7.000. Los macronutrientes siguen siguen siendo los mismos (glúcidos, lípidos y proteínas) pero sus efectos sobre la salud y su influencia en la composición corporal han ido cambiando en las últimas décadas. Y he aquí trece mitos sobre ciencia que tal vez usted aún crea ciertos (no deje de leer los comentarios). Tal como escribe Samuel Arbesman:
Foto de Parksy1964
«Facts change all the time. Smoking has gone from doctor recommended to deadly. Meat used to be good for you, then bad to eat, then good again; now it’s a matter of opinion. The age at which women are told to get mammograms has increased. We used to think that the Earth was the center of the universe, and our planet has since been demoted. I have no idea any longer whether or not red wine is good for me. And to take another familial example, my father, a dermatologist, told me about a multiple-choice exam he took in medical school that included the same question two years in a row. The answer choices remained exactly the same, but one year the answer was one choice and the next year it was a different one.»
El campo de trabajo de Arbesman es la cienciometría, una disciplina cuyo objetivo es medir y analizar la investigación científica. Según este autor los hechos o datos que forman el conocimiento científico tienen una vida media que obedece ciertas reglas matemáticas. Algunos datos cambian constantemente, como la temperatura en nuestra ciudad, mientras que otros cambian tan despacio que se consideran constantes, como el número de dedos de la mano. A medio camino se sitúan los mesodatos, aquellos que cambian con el paso de los años: los elementos de la tabla periódica que comentamos al principio, nuestros conocimientos sobre los dinosaurios, la tecnología informática y los tratamientos médicos.

Buena parte del conocimiento que va cambiando no afecta a nuestra vida diaria de forma directa. Dudo, verbigracia, que la vida del lector se haya vuelto patas arriba al conocer el nuevo número de elementos químicos. Como tampoco le explotará la cabeza al saber que, aunque en la película Jurassic Park los velociraptores son representados con una piel reptiliana, en 2007 se descubrió que en realidad estaban cubiertos de plumas. ¿Curioso? Tal vez. ¿Útil? Probablemente no (a no ser que esté considerando producir una película sobre dinosaurios).

Analicemos, pues, un ámbito más práctico como puede ser el de la medicina, donde los galenos más próximos dispuestos a educarnos son nuestras abuelas y nuestras madres. Que levante la mano a quien la hacedora de sus días le haya reprochado haber salido sin suficiente abrigo arriesgándose a coger un catarro. ¿Es cierto que uno puede resfriarse por el frío? Ocurre que la respuesta a esa pregunta ha ido cambiando con el tiempo:
«La sabiduría popular dice que sí. [...] Cualquier madre o médico de familia así lo afirmaría.
Pero los científicos llevan también años insistiendo en que la relación entre enfermedad y frío no es más que una quimera, argumentando que los resfriados son más comunes en invierno porque la gente se cierra en el interior de sus casas, donde los gérmenes tienen más posibilidades de pasar de una persona a otra.
[...] Pero hace algunos años, los científicos descubrieron la causa más común del resfriado: el rinovirus. A partir de ahí comenzaron a observar sus efectos en el sistema inmune. ¿El tiempo frío podría debilitar el sistema inmune y facilitar que el rinovirus causara una infección? A medida que fueron estudiando el rinovirus descubrieron que éste en realidad causa más daño en primavera y otoño, cuando el tiempo es lluvioso y húmedo, que en invierno.
[...] A partir de esos nuevos descubrimientos, los científicos vieron que la respuesta no es tan clara como parecía. La balanza se inclina a favor de la creencia popular, pues las investigaciones cada vez se encuentran más con el hecho de que un descenso de la temperatura corporal puede ocasionar un resfriado.
[...] Las personas nos resfriamos más en invierno en parte porque el mal tiempo nos hace entrar en sitios cerrados, pero también porque las temperaturas muy bajas afectan al sistema inmune, haciéndole más vulnerable a las infecciones o agravando alguna infección latente que ya teníamos.»
Entre las obligaciones de los padres se halla la de procurar la mejor salud al hijo. Por desgracia para estos la mayoría de progenitores atesoran un conocimiento médico basado mayormente en mitos, tradición y medios de comunicación de masas, tres vías de dudosa eficacia para transmitir un conocimiento real. El padre interesado en mantenerse al día encontrará interesante este libro (para un resumen con doce mitos populares y su validez o no puede consultar este artículo). Descubrirá, para alivio del crío, que no es necesario esperar dos horas después de comer para volver a zambullirse en la piscina (tortura de tantos niños de mi generación).

Todavía en relación con los cuidados parentales y entrando en la zona de las consecuencias fatales, aún recuerdo la reacción de mi madre cuando vio en el telediario que los médicos empezaban a recomendar que los bebés durmieran boca arriba. «¡De toda la vida los niños han dormido boca abajo!» exclamó algo perpleja. Al parecer la costumbre de colocar a los infantes en decúbito prono se debe al consejo dado por el pediatra norteamericano Benjamin Spock en su libro superventas Tu hijo. Su indicación se basaba en un razonamiento a priori, a saber, que si el niño vomitaba era más probable que se ahogara si dormía boca arriba. Estudios empíricos posteriores observaron sin embargo que el riesgo de muerte súbita era significativamente mayor en quienes dormían sobre su abdomen. Como decía, desde hace algunos años se insta a que los niños duerman sobre su espalda. En este mismo sentido, hace apenas unos meses se publicó en el British Medical Journal un estudio que concluía que el colecho (práctica aconsejada por el Ministerio de Salidad español en su informe Maternidad y Salud del año pasado) podría aumentar el riesgo de muerte súbita. Es de esperar que con el tiempo, gracias a la acumulación de evidencias, se pueda dar una indicación informada en uno u otro sentido.

Si los bebés son los seres que consideramos más frágiles y ante quienes procuramos con especial ahínco cumplir la máxima hipocrática primum non nocere, las mujeres embarazadas ocuparían el segundo puesto de la lista. A tenor por la interminable lista de advertencias y precauciones que reciben las mujeres en estado de buena esperanza se diría que gestar una criatura es un proceso harto delicado, y uno se pregunta cómo es posible que hayamos conseguido perpetuar la especie durante tanto tiempo, habida cuenta de la falta de medios en épocas pretéritas. Sea como fuere, los médicos suelen andar con pies de plomo y ser bastantes conservadores cuando tratan con mujeres en estado de buena esperanza. Recientemente la economista Emily Oster relataba en un artículo para el Wall Street Journal su experiencia con el embarazo, y cómo analizó los datos relativos a cada una de las recomendaciones dadas por su médico para averiguar cuánto había de verdad en ellas. Concluyó que no pasaría nada por beber un vaso de vino de vez en cuando, tomar café y hacer ejercicio cuando quisiera. Habrá que esperar cuarenta y cinco años (el tiempo estimado por John Hughlings Jackson para expulsar de la medicina una idea errónea) para ver si Oster tenía razón o si expuso a su criatura a riesgos innecesarios.

La gente tiene su vida, su trabajo (no todos los que quieren, por desgracia) y niños a los que criar (incluyendo algunos que no lo buscaban, para su desgracia). No es de esperar que se sienten periódicamente a reciclar sus conocimientos. En lugar de eso, confían en los medios de comunicación o internet. El problema es que gran parte de lo que oímos es engañoso cuando no directamente falso. Recibimos mucho más ruido que información real. Y como humanos hay límites a lo que podemos saber y el ritmo al que podemos aprender cosas nuevas. Sin embargo, hemos visto que mantenerse al día puede ser realmente importante por las consecuencias negativas que acarrea en ocasiones. No todas ellas son tan trágicas como la muerte de un infante, claro. A veces el daño se limita a pasar hambre de forma honorable mientras uno se pregunta perplejo cómo es que no consigue adelgazar cuando está cenando únicamente fruta y yogur.

Nassim Taleb publicó en su muro de Facebook su propia heurística para determinar lo que es importante:
«The odds of using, 10 years from now, something picked up today from random media is < 1 in 50,000. In science (outside of mathematics) it is < 1 in 30,000. On the other hand, you have more than 50 % chance of using (or remembering) something that you are interested in and has been "in print" more than a century. There is a very easy filter. What you search for is less likely to be noise. Further, word of mouth is more potent filtering than we think.»
Aunque no sea nada recomendable cambiar nuestros hábitos con cada nuevo estudio que sale a la luz (pues hacerlo nos hará víctimas del ruido) tampoco parece muy buena idea esperar cien años antes de hacerlo. Las tablas que aparecen en el libro de Arbesman muestran que el lugar del término medio varía según el campo del saber.

En ocasiones, tener un poco de algo es peor que no tener nada. Una falsa sensación de seguridad, verbigracia, puede hacernos asumir riesgos innecesarios. Respecto al tema que nos ocupa hoy ya entrevimos algunas complicaciones cuando hablamos del conocimiento incompleto. El conocimiento no actualizado supone un problema mayor que la ausencia total del mismo porque creer que ya sabemos algo nos puede hacer periclitar el reciclaje intelectual. En palabras del entrenador Charles Staley:
«I’ve frequently said that “knowing” is the most significant impediment to continued learning, because when you think you know, you cease further exploration.»
Quizá por eso Max Planck estaba en lo cierto al afirmar que las verdades científicas no acaban imponiéndose por sus propios méritos, sino porque sus detractores acaban muriendo y nace una nueva generación familiarizada con las nuevas ideas. La erudición es una empresa que comparte características con el castigo de Sísifo, devolviéndonos a menudo al punto de partida. Nuestro cerebro, con su gusto por lo fácil y rápido, no parece estar a la altura. Paradójico, si tenemos en cuenta que fue lo que usamos para adquirir todos esos datos en primer lugar.