Foto de FeatheredTar |
A la sazón tres economistas de la Universidad de Massachusetts descubrieron varios errores de método y de cálculo en el trabajo de Reinhart y Rogoff. Las pruebas que sostenían la cifra del 90% resultaron ser muy débiles, con serias dudas sobre el significado de la correlación entre crecimiento económico y nivel de deuda. A la vista están los resultados de las políticas de austeridad suicida. Ahora reculan.
En su día hablamos largo y tendido sobre los problemas de dejarse guiar por los números, en tanto en cuanto tratan de captar la abigarrada variedad del mundo humano a través del ojo de cerradura que son las cifras individuales. El caso de la fijación con el 90% ilustra dos debilidades de la mente humana cuando lidia con problemas complejos.
Los políticos se escudaron en lo que tenían –el mencionado estudio– para defender su postura. Todos hacemos lo mismo a diario (cuando juzgamos a los demás, por ejemplo): nos centramos en las pruebas que tenemos e ignoramos las que no tenemos, como si no existieran, y nos basamos en aquellas para dar forma a nuestras impresiones y arribar a nuestras conclusiones. Solo las pruebas que tenemos a mano cuentan, sin importar ni la calidad ni la cantidad de información que proporcionan. Daniel Kahnmenan llama a esta regla «lo que ves es todo lo que hay» (WYSIATI, por sus siglas en inglés). La consecuencia es una larga y variada lista de sesgos de juicio y de elección que incluyen, entre muchos otros, los siguientes:
El otro problema tiene que ver con nuestra vaguería mental. Cuando topamos con una pregunta difícil de contestar nuestra mente tiende a buscar respuesta a una pregunta relacionada más fácil. Kahnmenan llama a este proceso sustitución:
- «Overconfidence: As the WYSIATI rule implies, neither the quantity nor the quality of the evidence counts for much in subjective confidence. The confidence that individuals have in their beliefs depends mostly on the quality of the story they can tell about what they see, even if they see little. We often fail to allow for the possibility that evidence that should be critical to our judgment is missing—what we see is all there is. Furthermore, our associative system tends to settle on a coherent pattern of activation and suppresses doubt and ambiguity.
- Framing effects: Different ways of presenting the same information often evoke different emotions. The statement that “the odds of survival one month after surgery are 90%” is more reassuring than the equivalent statement that “mortality within one month of surgery is 10%.” Similarly, cold cuts described as “90% fat-free” are more attractive than when they are described as “10% fat.” The equivalence of the alternative formulations is transparent, but an individual normally sees only one formulation, and what she sees is all there is.
- Base-rate neglect: Recall Steve, the meek and tidy soul who is often believed to be a librarian. The personality description is salient and vivid, and although you surely know that there are more male farmers than male librarians, that statistical fact almost certainly did not come to your mind when you first considered the question. What you saw was all there was.»
«When confronted with a problem—choosing a chess move or deciding whether to invest in a stock—the machinery of intuitive thought does the best it can. If the individual has relevant expertise, she will recognize the situation, and the intuitive solution that comes to her mind is likely to be correct. This is what happens when a chess master looks at a complex position: the few moves that immediately occur to him are all strong. When the question is difficult and a skilled solution is not available, intuition still has a shot: an answer may come to mind quickly—but it is not an answer to the original question. The question that the executive faced (should I invest in Ford stock?) was difficult, but the answer to an easier and related question (do I like Ford cars?) came readily to his mind and determined his choice. This is the essence of intuitive heuristics: when faced with a difficult question, we often answer an easier one instead, usually without noticing the substitution.»El proceso es más o menos como sigue. Empezamos planteándonos un problema del estilo ¿cómo saber si a un país le va bien? Difícil pregunta, dado que es una cuestión muy general con multitud de facetas a considerar. Podemos suponer que si le va bien económicamente le irá bien a sus ciudadanos. ¿Y cómo sabemos si un país va bien económicamente? Bueno, podemos dar por hecho que el PIB está relacionado con la bonanza económica. Así, por un proceso de doble sustitución la inaprensible felicidad de los ciudadanos ha quedado ligada (y reducida) a lo que podemos medir, el PIB.
Los problemas de esta forma de proceder son obvios. Sirva de ejemplo el campo de la medicina, donde el proceso de sustitución está presente en diagnósticos y tratamientos. Si el lector ha echado un vistazo al resultado de sus análisis de sangre tal vez recuerde, verbigracia, que el nivel de referencia para el colesterol se establece (dependiendo del laboratorio) en 200-220 mg/dl, y que si supera esa cifra el médico le recomendará abstenerse de las grasas durante un tiempo. Si es muy alto quizá le recete un medicamente para reducirlo. Algo similar es aplicable a la presión arterial, cuyo límite ronda los 120/80 mmHg. La cantidad de colesterol en sangre y la presión arterial son lo que se conoce como indicadores o referentes secundarios, y se toman como guía para evaluar el riesgo de desarrollar enfermedades cardíacas. No obstante, es posible bajar el colesterol o la tensión sin disminuir el riesgo de consecuencias como muertes o infartos. La explicación de este problema por parte de Ben Goldacre bien se merece una cita larga:
«Muchas veces se autoriza un fármaco pese a haberse demostrado que no sirve de nada en situaciones del mundo real, como son infartos o defunciones, y esto se hace porque simplemente se ha demostrado un beneficio en «referentes secundarios», como, por ejemplo, un análisis de sangre, que solo está ligera o teóricamente asociado a la auténtica dolencia y a la muerte que se pretende evitar.
Lo entenderán mejor con un ejemplo. Las estatinas son medicamentos que reducen el colesterol, pero no se administran para modificar los índices de colesterol de los análisis de sangre, sino para reducir el riesgo de infarto de miocardio, o de muerte. Los ataques cardíacos y las defunciones son las consecuencias reales que nos interesan, y el colesterol es un referente secundario, una manifestación del proceso, algo que creemos asociado a la consecuencia real, pero que puede no estarlo en absoluto, o no tanto, quizá.
Muchas veces es razonable guiarse por un referente secundario, no como indicador único, pero sí al menos como indicador de alguna manifestación. La gente tarda en morir (es uno de los grandes problemas de la investigación, si me lo perdonan), por lo que si se desea una reacción rápida, no se puede estar a la espera de que se produzca el infarto y la muerte. En tales circunstancias, un referente secundario, como es un análisis de sangre, resulta un parámetro provisional razonable. Pero habrá que hacer un seguimiento a largo plazo en determinadas fases para averiguar si la sospecha en relación con el referente secundario era correcta.
[...] Este es el principal problema para los pacientes, porque los beneficios sobre referentes secundarios no se traducen muchas veces en beneficios para la vida real. De hecho, la historia de la medicina está llena de ejemplos en que ocurre todo lo contrario.
Probablemente el caso más dramático y famoso es el del ensayo de supresión de las arritmias cardiacas (CAST, por sus siglas en inglés), en el que se estudiaron tres fármacos antiarrítmicos para ver si prevenían la muerte súbita en pacientes con un elevado riesgo por padecer un ritmo cardíaco anormal. Los fármacos prevenían esas arritmias, y todos pensaban que eran estupendos. Se aprobó su venta para evitar muertes súbitas en pacientes con ritmos cardíacos anormales y los médicos no tuvieron reparo en recetarlos. Pero las inquietudes surgieron al realizarse un ensayo específico para medir las muertes, porque los fármacos incrementaban el riesgo de muerte de tal modo que hubo que poner fin al ensayo antes de lo previsto. Se había estado prescribiendo alegremente pastillas que mataban a la gente (se calcula que murieron más de 100.000 personas).»
Simplificar es útil y necesario. Un mapa a escala 1:1 contiene toda la información, pero no es práctico. Nuestra mente no puede lidiar a la vez con toda la información relevante. Sin embargo, siempre debemos hacer un esfuerzo consciente para tener presente que todo número, modelo o intuición es una simplificación de la realidad. Que además de las cosas que sabemos, hay que cosas que no sabemos que sabemos, cosas que sabemos que no sabemos, y cosas que no sabemos que no sabemos. No hay que olvidar que el mapa no es el territorio.
No hay comentarios:
Publicar un comentario