lunes, 25 de mayo de 2015

La ética del voto

Hace ahora un año había elecciones y expuse ciertos argumentos a favor del voto. Doce meses después, los españoles tenemos de nuevo la oportunidad de ir a las urnas y mi opinión al respecto no ha cambiado. No digo que votar debiera ser obligatorio; esa es una cuestión muy diferente. En este país, quien no quiere participar en la votación está en su derecho, como lo está de no leer un libro en su vida. Lo que sí creo es que, entre el voto o la abstención, a mi juicio es mejor votar, por las razones que ya expuse. Añádanse a ellos el que, al fin y al cabo, los impuestos te los van a cobrar en cualquier caso. ¿No preferirías opinar sobre dónde van a parar? (Si bien, por desgracia, en la práctica siempre acaban en el mismo sitio: el bolsillo de unos pocos.) Reconozco, no obstante, que desconozco los mejores argumentos de los abstencionistas, por lo que no estoy en posición de criticar.

Imagen de Scott Maxwell
En este ínterin electoral di con cierto artículo escrito por Jason Brennan sobre la ética del voto, resumen de un libro del mismo título publicado por el mismo autor. Es un buen artículo y les recomiendo su lectura, principalmente porque aquí citaré partes del mismo y, por la ínsita naturaleza de la cita, parte del contexto se perderá, lo que puede dar lugar a equívocos. Otra advertencia que debo al lector es señalar que no he leído el libro de Brennan, solo la entrada en su blog, por lo que puede que algunos de los comentarios que haga aquí estén perfectamente refutados en su obra.

Siempre que yo esté interpretando correctamente su punto de vista, la idea principal de Brennan es que uno no tiene la obligación moral de votar y que, si decide hacerlo, debería hacerlo «bien», esto es, de forma informada y sensata, no de cualquier manera y «porque sí»:

I argue that citizens have no standing moral obligation to vote. Voting is just one of many ways one can pay a debt to society, serve other citizens, promote the common good, exercise civic virtue, and avoid free-riding off the efforts of others. Participating in politics is nothing special, morally speaking.
However, I argue that if citizens do decide to vote, they have very strict moral obligations regarding how they vote. I argue that citizens must vote for what they justifiedly believe will promote the common good, or otherwise they must abstain.
La justificación para tal aserción es sencilla: nuestro voto afecta a los demás (sea para bien o para mal) y hay muchas cosas importantes en juego como para elegir la papeleta a la ligera. El voto bueno es el voto informado, y eso requiere esfuerzo:

[V]oters should vote on the basis of sound evidence. They must put in heavy work to make sure their reasons for voting as they do are morally and epistemically justified. In general, they must vote for the common good rather than for narrow self-interest. Citizens who are unwilling or unable to put in the hard work of becoming good voters should not vote at all. They should stay home on election day rather than pollute the polls with their bad votes.
Esta conclusión no es, en mi opinión, del todo equivocada, pero solo debe ser aceptada tras adecuada ponderación. Creo, como Mill, que es el deber «de los individuos formar las opiniones más verdaderas que puedan; formarlas escrupulosamente y nunca imponerlas a los demás, a menos que estén completamente seguros de que son ciertas». Soy el primero al que le gustaría que toda la ciudadanía hiciera sus deberes y razonara críticamente, valorara las pruebas correctamente y tuviera en cuenta el interés de todos. Pero también entiendo que, si solo pudieran votar quienes así actuaran, bastaría con una sola urna. Pretender que las personas añadan a sus cargas profesionales, familiares, físicas y existenciales un entrenamiento político profundo es, mucho me temo, demasiado pedir. En cuyo caso, sostiene este autor, mejor será que se queden en casa bajo la máxima primum non nocere:

We would never say to everyone, “Who cares if you know anything about surgery or medicine? The important thing is that you make your cut.” Yet for some reason, we do say, “It doesn’t matter if you know much about politics. The important thing is to vote.” In both cases, incompetent decision-making can hurt innocent people.
Una primera contestación muy breve a este razonamiento podría jugar con su analogía: no se trata de ciudadanos practicando la incisión quirúrgica, sino de ciudadanos eligiendo a un cirujano que llevará a cabo la operación. En teoría (o, al menos, eso es lo que ellos quieren hacernos creer) los políticos son expertos en su campo, y hasta al más incompetente se le dan por supuestas ciertas competencias mínimas. En la práctica, por supuesto, la mayoría son unos inútiles dedicados a pastar en el presupuesto, pero dejemos hoy ese asunto al margen.

Como quiera que sea, el punto que encuentro más objetable del artículo de Brennan es la suposición de que hay una forma «buena» o «correcta» de votar. Hemos visto que, para él, el buen votante tiene en cuenta las pruebas y el bien común. Asimismo, debe conocer bien a los candidatos y sus programas, así como ser capaz de discernir si dichos programas están compuestos de buenas o malas políticas:

Voters should have good grounds for thinking that they are voting for policies or candidates that will promote the common good. In general, there are three ways that voters will violate this norm. Bad voters might vote out of 1) ignorance, 2) irrational beliefs, or 3) immoral beliefs. In contrast, good voters not only know what policies candidates will try to implement, but also know whether those policies would tend to promote or harm the common good.
Todo lo cual es, sin duda, deseable. Pero la cuestión que hay que subrayar una y otra vez es que la política no es un problema técnico con un conjunto de soluciones políticas que sean «correctas». Esa visión tan propia de la Ilustración, reflejada en las obras de Locke, Hobbes, Bentham, Mill y Kant entre otros, acabó fracasando porque, como no se cansa de repetir el profesor Shapiro, «you can't wring the politics out of politics».

En economía, mucho me temo, ocurre otro tanto. Basta con observar cómo las políticas económicas se agrupan según las ideologías, y cómo algunas escuelas de pensamiento económico (como la austríaca) utilizan la ética para sostener sus propuestas. Impuestos, presupuesto militar, becas, servicios públicos, donaciones de órganos, legalización de las drogas, legalización de la prostitución... son todas ellas cuestiones irresolubles numéricamente en las que no se puede dejar al margen la parte moral. Y cuando la política entra en conflicto con la economía no es de extrañar que gane la primera. Ya advertía Bentham que, en el caso de que se persiguiera la igualdad total, los ricos quemarían sus cosechas antes que dárselas a los pobres.

Incluso aunque existieran soluciones correctas e incorrectas, es posible utilizar argumentos morales igual que hace Brennan para defender el voto (llamémosle así) desinformado. Si un gobierno obra mal ¿no tenemos la obligación moral de votar para quitarle del poder? En España tenemos el caso de un gobierno que recorta libertades civiles y constitucionales por doquier. ¿No es imperativo expulsarlos primeramente, pues la importancia de dichas libertades prevalece sobre otras cuestiones? No podemos entrar aquí en todas las objeciones posibles a esta línea de pensamiento (por ejemplo: ¿y si es peor el remedio que la enfermedad, y el partido entrante es aún más tirano?). Solo quería señalar que, en ocasiones, puede ser suficiente conocer un único aspecto de la política de un partido para tomar una decisión éticamente defendible.

Hemos visto que Jason Brennan enmarca el problema más o menos de la siguiente forma: si no sabes, no hagas nada, porque podrías empeorar las cosas. Sin embargo, otra forma de dibujar el problema es la siguiente: si no sabes, mejor no opines. Dado que cabe concebir las elecciones como una encuesta en la que el número de votos equivale groseramente al grado de aprobación, si Brennan tiene razón ¿significa eso que debe opinar solo la gente informada?

He de confesar aquí que siento la tentación de situarme de su lado. A diario (seguro que a ustedes les ocurre lo mismo) oigo opinar a decenas de personas sobre los temas más variopintos sin tener ni idea, ya sea sobre fitness, informática, medicina o física. Raro es el día que no me sangran los oídos por las burradas que atraviesan mis tímpanos. No obstante, opinar sobre política no equivale a hacerlo sobre física. No todos estamos capacitados para discutir si P=NP, pero todos nos hacemos una idea de si las políticas del gobierno nos satisfacen o no (si bien solo de forma aproximada, pues muchos hilos se mueven en la sombra). Hemos de reconocer el derecho de todos los que han de obedecer la ley a expresar su acuerdo o desacuerdo en las urnas con quienes hacen dichas leyes, al margen, de nuevo, de sus políticas en otros ámbitos. Y no debemos olvidar que, en la práctica, los partidos políticos incumplen sus promesas sistemáticamente, por lo que esta función de las elecciones como termómetro cobra mayor importancia.

Al preguntarle a mi abuela si ha ido a votar me ha dicho que no. «Yo no sé cuál es el menos malo, así que no voto a ninguno», ha agregado. No hay duda de que Brennan estaría satisfecho.

lunes, 18 de mayo de 2015

La Roca (y II)

Política y economía son dos arenas especialmente propicias para ser defendidas por nuestro sistema de creencias. Incluso aunque se analicen todos los datos disponibles siempre cabe modificar ligeramente la pregunta o las definiciones de partida, entrar en detalles o matizar los fines para dar cabida a refutaciones, terreno fértil para los defensores de la construcción social del conocimiento. Además, es imposible separar de ambas la parte moral y resolverlas como problemas técnicos (los intentos de la era de los cincuenta de resolver la economía a base de ecuaciones y teoremas se antojan similares a aquellos que tuvieron lugar en los siglos XVIII y XIX destinados a resolver «la política»). En mi humilde opinión, es imposible proclamar que uno posee la certeza absoluta económica o política porque dispone de eso que llaman «la evidencia». Aceptemos pues –aunque sea a regañadientes– que en estas cuestiones las personas siempre defenderemos nuestras creencias frente a los hechos y sigamos adelante, preguntándonos ahora: ¿cómo de buenos (o malos) bayesianos somos en áreas más asépticas, allí donde la identidad social y la imagen propia no son cuestionadas?

Quizá recuerden algunos casos que ya mencionamos en historia de la ciencia en los que científicos de renombre dieron la espalda a los hechos: el físico Fred Hoyle rechazando la teoría del Big Bang y Ronald Fisher rebatiendo la correlación entre el tabaco y el cáncer. Claro que Hoyle y Fisher eran gigantes en sus respectivos campos de conocimiento y, como tales, podían usar su inteligencia y conocimientos para sembrar la duda razonable. Caso muy distinto es el de Enriqueta y Teleforo, padres primerizos que deciden no vacunar a su prole porque creen que las vacunas producen autismo.

Mucho se ha escrito este año sobre las vacunas, especialmente en medios anglosajones, ya que en Estados Unidos y el Reino Unido el número de progenitores que se niegan a inmunizar a sus hijos parece haber crecido bastante. Como seguramente ya sabrán, el movimiento antivacunas nació en 1998 cuando el médico británico Andrew Wakefield publicó en The Lancet los resultados de un estudio según el cual la administración de la vacuna triple vírica provocaba autismo. Todas las investigaciones posteriores han refutado tal asociación y Wakefield fue despojado de su licencia médica acusado de fraude, a pesar de lo cual poco más de la mitad de los estadounidenses consideran las vacunas seguras. ¿El resultado? Seiscientos cuarenta y cuatro casos nuevos de sarampión en Estados Unidos el año pasado, el triple que el año con más casos que le sigue en la serie.

Una cosa está clara de los antivacunas: si supieran quién fue Thomas Bayes y dónde está enterrado, viajarían hasta allí para mear sobre su tumba. Recuerden que, según este teorema, cuando uno conoce nuevos datos debe ajustar su creencia en la hipótesis en una cantidad que se puede calcular matemáticamente. Pues bien, ¿qué ocurre cuando a los antivacunas se les presentan pruebas de la seguridad y los beneficios de la inmunización? Que disminuye aún más su intención de vacunar a sus hijos:

The researchers showed participants information from the Center for Disease Control (CDC), which was designed to debunk the myth that the flu vaccine can give you flu. This resulted in a fall in people's false beliefs but, among those concerned with vaccine side-effects, it also resulted in a paradoxical decline in their intentions to actually get vaccinated, from 46 per cent to 28 per cent. The intervention had no effect on intentions to get vaccinated amongst people who didn't have high levels of concerns about vaccine side effects in the first place.
[...] This is not the first time that vaccine safety information has been found to backfire. Last year the same team of researchers conducted a randomised controlled trial comparing messages from the CDC aiming to promote the measles, mumps and rubella (MMR) vaccine. The researchers found that debunking myths about MMR and autism had a similarly counterproductive result - reducing some false beliefs but also ironically reducing intentions to vaccinate.
Por lo visto, enfrentar a una persona con los datos puede hacer que el tiro nos salga por la culata. Lo paradójico es que la probabilidad de vacunación descendió aun cuando los sujetos sí corrigieron parcialmente sus falsas creencias sobre las vacunas.

Al parecer, el teorema de Bayes solo puede funcionar en ordenadores, no en cerebros humanos. Las personas aplicamos el razonamiento motivado en todas las esferas de la vida; allí donde nos lleven la contraria activaremos nuestras defensas. Brendan Nyhan es un profesor de Darmouth especializado en el estudio de las percepciones erróneas en política y sanidad. Es también coautor del estudio citado anteriormente. Según él, no hay ninguna diferencia en la forma en que las personas razonamos acerca de las vacunas, los edulcorantes, la política, el gazpacho o cualquier otra controversia:

People feel passionately, they are not inclined to hear contradictory messages, and there are all sorts of myths circulating. The way people reason about vaccines, it's the same as the way people reason about other controversial topics.
La manera en que razonamos sobre asuntos polémicos es fácil de describir: cuando los datos nos dan la razón, invocamos la evidencia; cuando contradicen nuestra postura, en lugar de rectificar les damos la espalda y salimos corriendo:

[R]esearch suggests that the mere prospect of a factual threat leads us to downplay how much our belief depends on such evidence at all. We become attracted to other, less falsifiable reasons for believing.
[...] When the facts were on their side, they rated the issues [...] as a matter for evidence to decide; when the facts were against them, they saw it as more a matter of opinion.
Es decir, intentamos escapar del territorio de los hechos para adentrarnos en el de las creencias y las opiniones, allí donde no hay fundamentaciones últimas y, por tanto, es mucho más fácil hacerse fuerte frente al contrario, evitando de ese modo llegar a conclusiones no deseadas (el énfasis es mío):

Of course, sometimes people just dispute the validity of specific facts. But we find that people sometimes go one step further and [...] they reframe an issue in untestable ways. This makes potential important facts and science ultimately irrelevant to the issue.
[...] [W]hen people’s beliefs are threatened, they often take flight to a land where facts do not matter. In scientific terms, their beliefs become less “falsifiable” because they can no longer be tested scientifically for verification or refutation.
Valve, la empresa de desarrollo de videojuegos, pone a disposición de sus nuevos empleados una guía en la que se explica, entre otras cosas, cómo está organizada la empresa y qué se espera de los trabajadores. Bajo el epígrafe What if I screw up? hablan de los errores y sus consecuencias, de la forma correcta y la incorrecta de equivocarse, y de cómo actuar en caso de meter la pata. Termina esta sección con una frase que se me ha quedado grabada y por la que todos –no solo los empleados de Valve– deberíamos regirnos:

Never ignore the evidence; particularly when it says you’re wrong.
Pero, como ya saben, no vivimos en deberialandia, y esconder los hechos incómodos es una tentación demasiado grande. Hete aquí una imagen que apareció en Reddit en relación con cierta polémica en torno al juego The Elder Scrolls V: Skyrim desarrollado por la casa (clic para ampliar):


Al parecer, algún empleado no se leyó esa parte de la guía y decidió que lo mejor era eliminar de la imagen la calificación tan negativa que los jugadores habían otorgado en su descontento por las decisiones de la empresa. Oh, the irony!

lunes, 11 de mayo de 2015

La Roca (I)

When my information changes, I alter my conclusions. What do you do, sir?
–John Maynard Keynes


Como ejemplo de ese debate político de apariencia racional pero con fondo emotivista en el que todos nos hayamos envueltos, en el verano de 2014 se publicó un manifiesto titulado Última llamada que sostenía que nos hallamos inmersos en una crisis de civilización. Dicho manifiesto fue criticado por gente de Politikon en estos términos (el énfasis es mío):

[C]onstruye una madeja de declaraciones altisonantes y maximalistas que ni se apoyan en argumentos racionales ni se soportan en datos; o, lo que es peor, con frecuencia van contra la evidencia de que disponemos.
La queja aquí es un clásico desde la Ilustración. Se supone que ya no vivimos en un tiempo dominado por grandes teorías desarrolladas por autoridades como Aristóteles cuya veracidad se asume cual dogma de fe, sino que disponemos de la ciencia para alcanzar la verdad. Ya no es necesario elucubrar; tenemos datos y pruebas que nos dicen lo que hay y lo que es, y obviar o contradecir dichas pruebas es propio de gente irracional, ignorantes o arteros prosélitos tratando de imponer su agenda ideológica.

Tiempo después David Ruiz publicó un artículo en el que mostraba otros datos que contradecían la evidencia aportada por la gente de Politikon. Les recomiendo el artículo de Ruiz porque demuestra lo fácil que es encontrar para cada «prueba» su contraria, y cómo esto de recabar evidencias se parece mucho a ir a recoger frutos silvestres, donde uno elige los que le parecen más apetitosos y deja el resto ocultos en la mata. Es un fenómeno especialmente notable en eso de la economía, donde –sin importar la ideología del economista de turno– se topa uno con largas listas de estudios que «prueban» las tesis del autor y echan por tierra las del contrario. Los psicólogos tienen un término propio para eso que los ingleses llaman cherry picking:

Psychologists now have file cabinets full of findings on “motivated reasoning,” showing the many tricks people use to reach the conclusions they want to reach. When subjects are told that an intelligence test gave them a low score, they choose to read articles criticizing (rather than supporting) the validity of IQ tests. When people read a (fictitious) scientific study that reports a link between caffeine consumption and breast cancer, women who are heavy coffee drinkers find more flaws in the study than do men and less caffeinated women. Pete Ditto, at the University of California at Irvine, asked subjects to lick a strip of paper to determine whether they have a serious enzyme deficiency. He found that people wait longer for the paper to change color (which it never does) when a color change is desirable than when it indicates a deficiency, and those who get the undesirable prognosis find more reasons why the test might not be accurate (for example, “My mouth was unusually dry today”).

Foto de Dave Sutherland

Solemos pensar que si alguien sostiene una tesis y le enseñamos pruebas en contra entonces esa persona debería cambiar de parecer. Asumimos también que cuantas más pruebas aportemos más razones tiene para abandonar su posición, y que no hacerlo es irracional. Es decir, damos por sentado que las personas seguimos un proceso de aprendizaje bayesiano. En la década de los cincuenta, Ward Edwards concluyó que los humanos somos «aproximadamente bayesianos». Los modelos formales asumen que ajustar nuestras creencias es algo que tiene lugar sin problemas. ¿Cómo de buenos (o malos) bayesianos somos realmente? ¿En qué grado ajustamos nuestras creencias según las pruebas?

Voy a ahorrarles el suspense: los humanos nos resistimos a actualizar nuestras creencias, sobre todo cuando las pruebas que evaluamos contradicen lo que pensamos. Décadas de investigaciones posteriores a Edwards de la mano de Kahneman y Tversky nos han mostrado que, de hecho, las personas no pensamos de forma bayesiana. Como explica Philip Tetlock:

Decades of laboratory research on “cognitive conservatism” warn us that even highly educated people tend to be balky belief updaters who admit mistakes grudgingly and defend their prior positions tenaciously.
Y en la nota al pie continúa:

Some researchers have concluded that people are such bad Bayesians that they are not Bayesians at all (Fischhoff and Beyth-Marom, “Hypothesis Evaluation from a Bayesian Perspective”). Early work on cognitive conservatism showed that people clung too long to the only information they initially had—information that typically took the form of base rates of variously colored poker chips that defined judges’ “priors.”
Tetlock cuantificó este «déficit bayesiano» en su célebre estudio sobre los expertos. Cuando erraban en su respuesta, los sujetos de estudio ajustaban sus creencias a la luz de nuevas pruebas en un grado bastante inferior al que prescribe la regla de Bayes, entre un diecinueve y un cincuenta y nueve por ciento de lo que deberían. Por contra, allí donde habían acertado el ajuste de creencia se situaba entre el sesenta y el ochenta por ciento del que debería ser.

El experimento de Tetlock consistió en pedir a doscientos ochenta y cuatro expertos que hicieran predicciones sobre una variedad de escenarios políticos: la URSS, la Unión Europea, la primera Guerra del Golfo, Yugoslavia, Sudáfrica y muchos otros. Años después evaluó el nivel de acierto de las predicciones. En conjunto, los expertos no lo hicieron mejor que un grupo de chimpancés lanzando dardos a una diana.

Es interesante ver cómo se defendieron estos expertos cuando tuvieron que confrontar sus fallos. Puede que las personas seamos idiotas, pero no queremos aparentarlo. Por fortuna, contamos con una poderosa máquina generadora de justificaciones a la que podemos recurrir para lavar nuestra imagen y seguir en nuestros trece. Todos tenemos a nuestra disposición un elaborado sistema de defensas para nuestras creencias, y ya vimos que las personas inteligentes están acostumbradas a usar su intelecto para proteger creencias poco inteligentes. En el caso de los expertos, algunas de estas justificaciones fueron el «casi acierto» («lo que predije no pasó, pero casi ocurre»), el «acabará pasando» («lo que yo predije acabará teniendo lugar, solo hay que esperar»), el «ocurrió algo inesperado» («de no haber sucedido aquel hecho improbable yo habría acertado») y el siempre útil «es complicado» («es imposible predecir el futuro»). En ausencia de contrafactuales, algunas de estas defensas ahondan en oscuras cuestiones epistemológicas y tienen cierta solidez filosófica, por lo que no son fácilmente descartables como simples excusas.

Continuará

lunes, 4 de mayo de 2015

Según un estudio

Pepsi ha anunciado recientemente que va a eliminar el aspartamo de sus bebidas light en Estados Unidos y sustituirlo por sucralosa. Al parecer, la presencia de aspartamo es la razón principal por la que los norteamericanos consumen cada vez menos bebidas sin azúcar, lo que está afectando a las ventas. Este edulcorante ha estado rodeado de polémica desde su aprobación en 1974, proceso que se percibió como plagado de irregularidades, entre las que se incluían puertas giratorias y ocultación de pruebas. Años más tarde, en 1996, un reportaje de 60 minutos trasladó al público general los resultados de un estudio que identificaba este aditivo como la causa de tumores en ratones.

Lo cierto es que después de haber sido estudiado durante más de treinta años no se han encontrado pruebas sólidas de que el aspartamo sea dañino para los humanos. De hecho, dos recientes revisiones de todos los estudios disponibles han concluido que, en los niveles de consumo actuales, es un edulcorante seguro. Aún así, no es difícil encontrar sitios web dedicados a la lucha contra este aditivo.

El aspartamo es solo una de muchas sustancias químicas marcadas de por vida por el resultado de un trabajo voceado por los medios de información de masas. Al igual que ocurre con las vacunas, basta con un único estudio (cuyo método y diseño no tienen ni siquiera que ser sólidos) para sembrar la duda y asentar en el imaginario colectivo la idea de que la sustancia X produce la terrible Y, y que es algo a evitar. No es raro que todo ello venga acompañado del enfrentamiento de grupos partisanos surgidos como hongos y la creación de teorías conspiranoicas.

Aquí concurren dos problemas. El primero es la validez de los periódicos y los telediarios como fuente de información científica. Como escribe Ben Goldacre:

El mayor problema de las noticias sobre ciencia es que se nos presentan sistemáticamente vacías de evidencia científica. ¿Por qué? Porque los periódicos piensan que ustedes no entenderán la «parte científica» del asunto, por lo que todas las noticias sobre ciencia han de pasar previamente por un proceso de reducción de su nivel de dificultad, en un desesperado intento por seducir y atraer a los ignorantes, precisamente, aquellas personas a quienes no interesa la ciencia para nada (tal vez porque los periodistas creen que es buena para todos nosotros y que, por lo tanto, debería democratizarse).

[...] ¿Cómo sortean los medios el problema de su incapacidad para proporcionarnos la evidencia científica propiamente dicha? A menudo, lo hacen recurriendo a figuras de autoridad (un recurso que constituye la antítesis misma de la esencia de la ciencia) y tratándolas como si de curas, políticos o figuras paternas se tratara. «Un grupo de científicos ha dicho hoy que…» «Unos científicos han revelado que…» «Los científicos han advertido que…» Si al periódico o al espacio radiotelevisivo de turno le interesa introducir un poco de equilibrio, nos mostrarán a dos científicos en desacuerdo, aunque sin explicación alguna de por qué (un método cuya más peligrosa versión pudimos ver en acción cuando se extendió el mito de que los científicos estaban «divididos» en torno a la seguridad de la vacuna triple vírica): un científico «revela» algo y, entonces, otro lo «cuestiona». Más o menos, como si fueran caballeros Jedi.
Como ocurre tantas veces, si uno quiere información de calidad debe olvidarse de la prensa general y acudir a las publicaciones especializadas. De esa manera podremos saber qué se midió y cómo, así como lo que se descubrió, y no tendremos que fiarnos ciegamente de las conclusiones que el periodista de turno ha copiado y pegado directamente de la nota de prensa.

Los medios de comunicación son, por otro lado, víctima fácil del sesgo de publicación, esto es, el hecho de que tienden a publicarse únicamente los estudios que muestran un resultado positivo. Como explica magistralmente la viñeta de XKCD, este sesgo lleva a que se difundan en los medios conclusiones absurdas cuya veracidad es asumida por la población general prima facie. Claro que lo contrario también ocurre: a veces son los estudios que no lograron aparecer en prestigiosas revistas con revisión por pares los que se llevan directamente a la prensa para hacerse oír, ya que estos últimos son incapaces de filtrar nada basándose en la calidad del estudio.

Por desgracia, en esto de la ciencia hay más problemas aparte de los periodistas. Hacer ciencia es un proceso enteramente humano y, como tal, no es algo prístino llevado a cabo en un vacío ideal libre de pasiones, sesgos o instintos. La calidad del método científico depende de multitud de detalles que pueden pasarse por alto, bien por negligencia, bien por interés.

Lamentablemente, una de las industrias que más diligente debería ser en este sentido es la que más comportamientos reprobables exhibe. Les hablo de las empresas farmacéuticas. Estas empresas, por ejemplo, publican los resultados de los estudios que dan un resultado positivo, pero ocultan los que muestran que su medicina no es mejor que el placebo o el fármaco equivalente ya disponible. Las nuevas moléculas se estudian en poblaciones no representativas, pacientes ideales o atípicos, o personas que no serán los consumidores finales (por ejemplo, se prueban en personas sanas de países del tercer mundo medicamentos para enfermedades típicas de los países industrializados, como la diabetes). En sus estudios, estas compañías comparan el medicamento que están desarrollando con la peor alternativa posible, o con la mejor alternativa aplicada en dosis incorrectas. Interrumpen los ensayos clínicos en cuanto se atisba algún resultado positivo, aún cuando ello ocurra mucho antes de la fecha prevista de fin del mismo, con lo que se ocultan posibles efectos secundarios a largo plazo. Se recluta a poca gente para los estudios, aumentando así las posibilidades de obtener un resultado positivo simplemente por azar. Finalizado el estudio, los datos se masajean o torturan de mil maneras hasta conseguir una conclusión favorable. Y así siguiendo. El lector interesado puede consultar una buena lista de prácticas discutibles en el libro de Ben Goldacre dedicado a este tema.

Pero la medicina no es la única disciplina aquejada de ciertos males en su aplicación del método científico. La psicología, verbigracia, está afectada por el sesgo WEIRD, a saber, el hecho de que del sesenta al noventa por ciento de estudios se realiza en sujetos «western, educated, and from industrialized, rich, and democratic countries», a pesar de que estos representan únicamente un octavo de la población mundial. Y las ciencias sociales en general viven bajo la duda del problema de la replicación, una crisis de confianza surgida de los fallos obtenidos al tratar de replicar los resultados de una investigación dada en experimentos similares. En 2008, por ejemplo, Simone Schnall y sus colaboradores concluyeron en su estudio que la dureza de los juicios morales de las personas cambiaba según las sensaciones de limpieza o suciedad de los individuos, de manera que si –entre otras cosas– los sujetos del estudio se lavaban las manos antes de emitir un juicio moral, este resultaba ser menos severo. Sin embargo, David Johnson, Felix Cheun y Brent Donnellan repitieron el experimento y no encontraron dicho efecto. Este es solo uno de los estudios que aparecían en un número especial (les dejo un enlace alternativo por si no funciona el anterior) de la revista Social Psychology publicado el año pasado en el que se intentaron replicar veintisiete hallazgos importantes en psicología social. En esta misma línea, recientemente se han publicado los primeros resultados del estudio más ambicioso de este tipo, en el que se intentaban replicar los hallazgos de cien estudios de psicología. Los datos preliminares no son muy halagüeños.

En realidad, la «crisis de la replicación» no es específica de las ciencias sociales. Un célebre artículo de John P. A. Ioannidis publicado en 2005 aseguraba que la mayoría de los resultados publicados en medicina son falsos:

In 2005, an Athens-raised medical researcher named John P. Ioannidis published a controversial paper titled “Why Most Published Research Findings Are False.” The paper studied positive findings documented in peer-reviewed journals: descriptions of successful predictions of medical hypotheses carried out in laboratory experiments. It concluded that most of these findings were likely to fail when applied in the real world. Bayer Laboratories recently confirmed Ioannidis’s hypothesis. They could not replicate about two-thirds of the positive findings claimed in medical journals when they attempted the experiments themselves.
De ahí que sea tan importante realizar varias veces el mismo experimento, pues solo de esa manera podemos alcanzar cierto nivel de confianza en el resultado obtenido. En palabras de Karl Popper:

Only when certain events recur in accordance with rules or regularities, as is the case with repeatable experiments, can our observations be tested — in principle — by anyone. We do not take even our own observations quite seriously, or accept them as scientific observations, until we have repeated and tested them. Only by such repetitions can we convince ourselves that we are not dealing with a mere isolated ‘coincidence’, but with events which, on account of their regularity and reproducibility, are in principle inter-subjectively testable.
Con un solo estudio puede demostrarse casi cualquier cosa, y Google puede llevarnos a donde queramos. Para la mayoría, buscar pruebas significa poner en el buscador lo que queremos encontrar, como aquella amiga mía que introdujo la frase «la cerveza no engorda» para encontrar algo con lo que sostener su convencimiento. Esa es, obviamente, la forma errónea de actuar, pues lo importante a la hora de tomar una decisión es revisar todas las pruebas disponibles:

[Y]ou have to interpret a literature, not a single study. The results of one lab or one study can be erroneous. When decades have produced hundreds of studies on a question, the cherry pickers will always have a lot to choose from. That is why systematic reviews are necessary, and it is also necessary to understand the strengths and weaknesses of each type of research.
La imagen que ilustra este artículo es el logotipo de Cochrane Collaboration, una organización internacional e independiente de académicos voluntarios sin ánimo de lucro que elabora y publica revisiones sistemáticas de estudios médicos. Este logotipo es un diagrama de bosque de un metaanálisis realizado en su momento sobre la administración de corticoesteroides en bebés prematuros. Cada línea horizontal representa un estudio. Cuanto más larga es esta línea, más incierto fue el resultado del estudio. Si la línea se sitúa a la izquierda de la línea vertical significa que los esteroides fueron mejores que el placebo; si se sitúa a la derecha, significa que los esteroides funcionaron peor. La posición del rombo indica la respuesta obtenida del conjunto de todos los estudios. En este caso, dicho resultado muestra una reducción de entre el treinta y el cincuenta por ciento del riesgo de muerte del bebé prematuro cuando se le administran los esteroides. Hasta que no se publicó esta revisión en 1989 muchos bebés murieron al desconocer los óbstetras la efectividad de dicho tratamiento.

Sería maravilloso que existieran diagramas de bosque al alcance de la mano para cualquiera de nuestras preocupaciones, ya sean los edulcorantes, las vacunas, las ondas de radiofrecuencia, los transgénicos, el fracking o cualquier otro asunto importante. Actualmente existe un creciente movimiento a favor de la política basada en pruebas, el cual trata de llevar el método de investigación clínico a otras áreas, como las ciencias sociales. Desgraciadamente, como hemos hablado en varias ocasiones, es difícil que tenga un gran efecto. Siempre se pueden poner en duda las motivaciones de quien lo elabora, el método y las compañías que hay detrás. Y siempre nos toparemos con actitudes como la de Janet Starr Hull, la responsable de www.sweetpoison.com: «I will never accept the news of aspartame safety».