lunes, 18 de mayo de 2015

La Roca (y II)

Política y economía son dos arenas especialmente propicias para ser defendidas por nuestro sistema de creencias. Incluso aunque se analicen todos los datos disponibles siempre cabe modificar ligeramente la pregunta o las definiciones de partida, entrar en detalles o matizar los fines para dar cabida a refutaciones, terreno fértil para los defensores de la construcción social del conocimiento. Además, es imposible separar de ambas la parte moral y resolverlas como problemas técnicos (los intentos de la era de los cincuenta de resolver la economía a base de ecuaciones y teoremas se antojan similares a aquellos que tuvieron lugar en los siglos XVIII y XIX destinados a resolver «la política»). En mi humilde opinión, es imposible proclamar que uno posee la certeza absoluta económica o política porque dispone de eso que llaman «la evidencia». Aceptemos pues –aunque sea a regañadientes– que en estas cuestiones las personas siempre defenderemos nuestras creencias frente a los hechos y sigamos adelante, preguntándonos ahora: ¿cómo de buenos (o malos) bayesianos somos en áreas más asépticas, allí donde la identidad social y la imagen propia no son cuestionadas?

Quizá recuerden algunos casos que ya mencionamos en historia de la ciencia en los que científicos de renombre dieron la espalda a los hechos: el físico Fred Hoyle rechazando la teoría del Big Bang y Ronald Fisher rebatiendo la correlación entre el tabaco y el cáncer. Claro que Hoyle y Fisher eran gigantes en sus respectivos campos de conocimiento y, como tales, podían usar su inteligencia y conocimientos para sembrar la duda razonable. Caso muy distinto es el de Enriqueta y Teleforo, padres primerizos que deciden no vacunar a su prole porque creen que las vacunas producen autismo.

Mucho se ha escrito este año sobre las vacunas, especialmente en medios anglosajones, ya que en Estados Unidos y el Reino Unido el número de progenitores que se niegan a inmunizar a sus hijos parece haber crecido bastante. Como seguramente ya sabrán, el movimiento antivacunas nació en 1998 cuando el médico británico Andrew Wakefield publicó en The Lancet los resultados de un estudio según el cual la administración de la vacuna triple vírica provocaba autismo. Todas las investigaciones posteriores han refutado tal asociación y Wakefield fue despojado de su licencia médica acusado de fraude, a pesar de lo cual poco más de la mitad de los estadounidenses consideran las vacunas seguras. ¿El resultado? Seiscientos cuarenta y cuatro casos nuevos de sarampión en Estados Unidos el año pasado, el triple que el año con más casos que le sigue en la serie.

Una cosa está clara de los antivacunas: si supieran quién fue Thomas Bayes y dónde está enterrado, viajarían hasta allí para mear sobre su tumba. Recuerden que, según este teorema, cuando uno conoce nuevos datos debe ajustar su creencia en la hipótesis en una cantidad que se puede calcular matemáticamente. Pues bien, ¿qué ocurre cuando a los antivacunas se les presentan pruebas de la seguridad y los beneficios de la inmunización? Que disminuye aún más su intención de vacunar a sus hijos:

The researchers showed participants information from the Center for Disease Control (CDC), which was designed to debunk the myth that the flu vaccine can give you flu. This resulted in a fall in people's false beliefs but, among those concerned with vaccine side-effects, it also resulted in a paradoxical decline in their intentions to actually get vaccinated, from 46 per cent to 28 per cent. The intervention had no effect on intentions to get vaccinated amongst people who didn't have high levels of concerns about vaccine side effects in the first place.
[...] This is not the first time that vaccine safety information has been found to backfire. Last year the same team of researchers conducted a randomised controlled trial comparing messages from the CDC aiming to promote the measles, mumps and rubella (MMR) vaccine. The researchers found that debunking myths about MMR and autism had a similarly counterproductive result - reducing some false beliefs but also ironically reducing intentions to vaccinate.
Por lo visto, enfrentar a una persona con los datos puede hacer que el tiro nos salga por la culata. Lo paradójico es que la probabilidad de vacunación descendió aun cuando los sujetos sí corrigieron parcialmente sus falsas creencias sobre las vacunas.

Al parecer, el teorema de Bayes solo puede funcionar en ordenadores, no en cerebros humanos. Las personas aplicamos el razonamiento motivado en todas las esferas de la vida; allí donde nos lleven la contraria activaremos nuestras defensas. Brendan Nyhan es un profesor de Darmouth especializado en el estudio de las percepciones erróneas en política y sanidad. Es también coautor del estudio citado anteriormente. Según él, no hay ninguna diferencia en la forma en que las personas razonamos acerca de las vacunas, los edulcorantes, la política, el gazpacho o cualquier otra controversia:

People feel passionately, they are not inclined to hear contradictory messages, and there are all sorts of myths circulating. The way people reason about vaccines, it's the same as the way people reason about other controversial topics.
La manera en que razonamos sobre asuntos polémicos es fácil de describir: cuando los datos nos dan la razón, invocamos la evidencia; cuando contradicen nuestra postura, en lugar de rectificar les damos la espalda y salimos corriendo:

[R]esearch suggests that the mere prospect of a factual threat leads us to downplay how much our belief depends on such evidence at all. We become attracted to other, less falsifiable reasons for believing.
[...] When the facts were on their side, they rated the issues [...] as a matter for evidence to decide; when the facts were against them, they saw it as more a matter of opinion.
Es decir, intentamos escapar del territorio de los hechos para adentrarnos en el de las creencias y las opiniones, allí donde no hay fundamentaciones últimas y, por tanto, es mucho más fácil hacerse fuerte frente al contrario, evitando de ese modo llegar a conclusiones no deseadas (el énfasis es mío):

Of course, sometimes people just dispute the validity of specific facts. But we find that people sometimes go one step further and [...] they reframe an issue in untestable ways. This makes potential important facts and science ultimately irrelevant to the issue.
[...] [W]hen people’s beliefs are threatened, they often take flight to a land where facts do not matter. In scientific terms, their beliefs become less “falsifiable” because they can no longer be tested scientifically for verification or refutation.
Valve, la empresa de desarrollo de videojuegos, pone a disposición de sus nuevos empleados una guía en la que se explica, entre otras cosas, cómo está organizada la empresa y qué se espera de los trabajadores. Bajo el epígrafe What if I screw up? hablan de los errores y sus consecuencias, de la forma correcta y la incorrecta de equivocarse, y de cómo actuar en caso de meter la pata. Termina esta sección con una frase que se me ha quedado grabada y por la que todos –no solo los empleados de Valve– deberíamos regirnos:

Never ignore the evidence; particularly when it says you’re wrong.
Pero, como ya saben, no vivimos en deberialandia, y esconder los hechos incómodos es una tentación demasiado grande. Hete aquí una imagen que apareció en Reddit en relación con cierta polémica en torno al juego The Elder Scrolls V: Skyrim desarrollado por la casa (clic para ampliar):


Al parecer, algún empleado no se leyó esa parte de la guía y decidió que lo mejor era eliminar de la imagen la calificación tan negativa que los jugadores habían otorgado en su descontento por las decisiones de la empresa. Oh, the irony!

No hay comentarios:

Publicar un comentario