When my information changes, I alter my conclusions. What do you do, sir?
–John Maynard Keynes
Como ejemplo de ese debate político de apariencia racional pero con fondo emotivista en el que todos nos hayamos envueltos, en el verano de 2014 se publicó un manifiesto titulado Última llamada que sostenía que nos hallamos inmersos en una crisis de civilización. Dicho manifiesto fue criticado por gente de Politikon en estos términos (el énfasis es mío):
[C]onstruye una madeja de declaraciones altisonantes y maximalistas que ni se apoyan en argumentos racionales ni se soportan en datos; o, lo que es peor, con frecuencia van contra la evidencia de que disponemos.La queja aquí es un clásico desde la Ilustración. Se supone que ya no vivimos en un tiempo dominado por grandes teorías desarrolladas por autoridades como Aristóteles cuya veracidad se asume cual dogma de fe, sino que disponemos de la ciencia para alcanzar la verdad. Ya no es necesario elucubrar; tenemos datos y pruebas que nos dicen lo que hay y lo que es, y obviar o contradecir dichas pruebas es propio de gente irracional, ignorantes o arteros prosélitos tratando de imponer su agenda ideológica.
Tiempo después David Ruiz publicó un artículo en el que mostraba otros datos que contradecían la evidencia aportada por la gente de Politikon. Les recomiendo el artículo de Ruiz porque demuestra lo fácil que es encontrar para cada «prueba» su contraria, y cómo esto de recabar evidencias se parece mucho a ir a recoger frutos silvestres, donde uno elige los que le parecen más apetitosos y deja el resto ocultos en la mata. Es un fenómeno especialmente notable en eso de la economía, donde –sin importar la ideología del economista de turno– se topa uno con largas listas de estudios que «prueban» las tesis del autor y echan por tierra las del contrario. Los psicólogos tienen un término propio para eso que los ingleses llaman cherry picking:
Psychologists now have file cabinets full of findings on “motivated reasoning,” showing the many tricks people use to reach the conclusions they want to reach. When subjects are told that an intelligence test gave them a low score, they choose to read articles criticizing (rather than supporting) the validity of IQ tests. When people read a (fictitious) scientific study that reports a link between caffeine consumption and breast cancer, women who are heavy coffee drinkers find more flaws in the study than do men and less caffeinated women. Pete Ditto, at the University of California at Irvine, asked subjects to lick a strip of paper to determine whether they have a serious enzyme deficiency. He found that people wait longer for the paper to change color (which it never does) when a color change is desirable than when it indicates a deficiency, and those who get the undesirable prognosis find more reasons why the test might not be accurate (for example, “My mouth was unusually dry today”).
Foto de Dave Sutherland |
Solemos pensar que si alguien sostiene una tesis y le enseñamos pruebas en contra entonces esa persona debería cambiar de parecer. Asumimos también que cuantas más pruebas aportemos más razones tiene para abandonar su posición, y que no hacerlo es irracional. Es decir, damos por sentado que las personas seguimos un proceso de aprendizaje bayesiano. En la década de los cincuenta, Ward Edwards concluyó que los humanos somos «aproximadamente bayesianos». Los modelos formales asumen que ajustar nuestras creencias es algo que tiene lugar sin problemas. ¿Cómo de buenos (o malos) bayesianos somos realmente? ¿En qué grado ajustamos nuestras creencias según las pruebas?
Voy a ahorrarles el suspense: los humanos nos resistimos a actualizar nuestras creencias, sobre todo cuando las pruebas que evaluamos contradicen lo que pensamos. Décadas de investigaciones posteriores a Edwards de la mano de Kahneman y Tversky nos han mostrado que, de hecho, las personas no pensamos de forma bayesiana. Como explica Philip Tetlock:
Decades of laboratory research on “cognitive conservatism” warn us that even highly educated people tend to be balky belief updaters who admit mistakes grudgingly and defend their prior positions tenaciously.Y en la nota al pie continúa:
Some researchers have concluded that people are such bad Bayesians that they are not Bayesians at all (Fischhoff and Beyth-Marom, “Hypothesis Evaluation from a Bayesian Perspective”). Early work on cognitive conservatism showed that people clung too long to the only information they initially had—information that typically took the form of base rates of variously colored poker chips that defined judges’ “priors.”Tetlock cuantificó este «déficit bayesiano» en su célebre estudio sobre los expertos. Cuando erraban en su respuesta, los sujetos de estudio ajustaban sus creencias a la luz de nuevas pruebas en un grado bastante inferior al que prescribe la regla de Bayes, entre un diecinueve y un cincuenta y nueve por ciento de lo que deberían. Por contra, allí donde habían acertado el ajuste de creencia se situaba entre el sesenta y el ochenta por ciento del que debería ser.
El experimento de Tetlock consistió en pedir a doscientos ochenta y cuatro expertos que hicieran predicciones sobre una variedad de escenarios políticos: la URSS, la Unión Europea, la primera Guerra del Golfo, Yugoslavia, Sudáfrica y muchos otros. Años después evaluó el nivel de acierto de las predicciones. En conjunto, los expertos no lo hicieron mejor que un grupo de chimpancés lanzando dardos a una diana.
Es interesante ver cómo se defendieron estos expertos cuando tuvieron que confrontar sus fallos. Puede que las personas seamos idiotas, pero no queremos aparentarlo. Por fortuna, contamos con una poderosa máquina generadora de justificaciones a la que podemos recurrir para lavar nuestra imagen y seguir en nuestros trece. Todos tenemos a nuestra disposición un elaborado sistema de defensas para nuestras creencias, y ya vimos que las personas inteligentes están acostumbradas a usar su intelecto para proteger creencias poco inteligentes. En el caso de los expertos, algunas de estas justificaciones fueron el «casi acierto» («lo que predije no pasó, pero casi ocurre»), el «acabará pasando» («lo que yo predije acabará teniendo lugar, solo hay que esperar»), el «ocurrió algo inesperado» («de no haber sucedido aquel hecho improbable yo habría acertado») y el siempre útil «es complicado» («es imposible predecir el futuro»). En ausencia de contrafactuales, algunas de estas defensas ahondan en oscuras cuestiones epistemológicas y tienen cierta solidez filosófica, por lo que no son fácilmente descartables como simples excusas.
Continuará
No hay comentarios:
Publicar un comentario