Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas

lunes, 3 de junio de 2019

¿Experto o cuñado? (III)

Alejémonos un poco del concepto filosófico y centrémonos en la definición mundana del saber. Aquí encontramos, por un lado, el conocimiento de tipo Trivial Pursuit que sirve para responder  a preguntas tales como «¿cuántos jueces hay en el Tribunal Supremo?», «¿cuál es el número de Avogadro?», «¿qué países forman parte de la OTAN?» o «¿cuáles son los gases nobles?». Por otro, tenemos el conocimiento que utilizamos en cuestiones del tipo «justifica tu respuesta». El primero es fácil de evaluar. El segundo, que es el que nos interesa, no tanto.

Foto de Jlhopgood
¿Cómo podemos valorar si una persona es realmente experta en una materia? ¿Cómo asegurarnos de que no estamos confundiendo otras cualidades (seguridad en uno mismo, dominio de la jerga) con conocimiento verdadero? ¿Cómo podemos comprobar que no es el homúnculo de la habitación china de la que hablamos al principio?

Philip Tetlock, cuyo trabajo hemos mencionado en varias ocasiones, utilizó como vara de medir la capacidad de hacer predicciones acertadas. Como él mismo reconoce, es una elección discutible porque es posible conocer un fenómeno pero errar la predicción:

Explanation is possible without prediction. A conceptually trivial but practically consequential source of forecasting failure occurs whenever we possess a sound theory but do not know whether the antecedent conditions for applying the theory have been satisfied: high school physics tells me why the radiator will freeze if the temperature falls below 32°F but not how cold it will be tonight. Or, consider cases in which we possess both sound knowledge and good knowledge of antecedents but are stymied because outcomes may be subject to chaotic oscillations. Geophysicists understand how principles of plate tectonics produce earthquakes and can monitor seismological antecedents but still cannot predict earthquakes.
Asimismo, es posible hacer predicciones correctas aun cuando no sepamos explicar el fenómeno (ibídem):

Conversely, prediction is possible without explanation. Ancient astronomers had bizarre ideas about what stars were, but that did not stop them from identifying celestial regularities that navigators used to guide ships for centuries. And contemporary astronomers can predict the rhythms of solar storms but have only a crude understanding of what causes these potentially earth-sizzling eruptions. 
Este último problema ya nos lo hemos encontrado y vimos que, para que la explicación se considere conocimiento, esta debe tener una conexión causal con el hecho. Esa es la razón por la que, como ilustra el propio Tetlock, ningún científico que se precie cambiaría su opinión acerca de la astrología aun cuando un astrólogo hiciera predicciones acertadas, pues ello socavaría un enorme corpus de conocimiento científico establecido. En una situación así lo más lógico sería buscar otros mecanimos subyacentes a esos aciertos.

Podemos ver de forma sencilla la relación entre predicciones y conocimiento considerando los pronósticos sobre el clima. Si la aplicación meteorológica de nuestro teléfono no acierta nunca con la lluvia o con la temperatura de los días venideros diríamos que quienes hacen los pronósticos no tienen ni idea. Afortunadamente, aunque el clima es uno de los mejores ejemplos de oscilaciones caóticas que influyen en el resultado es posible hacer predicciones bastante certeras para cortos periodos de tiempo.

La reputación de los meteorólogos probablemente sea peor de lo que merecen, algo que no diría de los economistas cuyas predicciones yerran con tanta frecuencia que, en mi opinión, hay un sentimiento generalizado de falta de competencia que está justificado. De hecho, hay economistas que comparten esa sensación:

[E]conomics is faulted for its failure to predict. God created economic forecasters to make astrologers look good, quipped John Kenneth Galbraith (himself an economist). Exhibit A in recent times has been the global financial crisis, which unfolded at a time when the vast majority of economists had been lulled into thinking macroeconomic and financial stability had arrived for good. I explained in the previous chapter that this misperception was another by-product of the usual blind spot: mistaking a model for the model.
¿Por qué ligamos conocimiento y pronósticos acertados? Quizá sea un efecto secundario del método científico. Una buena teoría científica no solo explica los fenómenos observados hasta la fecha sino que además permite hacer predicciones claras, precisas y (a menudo) sorprendentes que pueden comprobarse. Simplificando mucho, si las predicciones resultan ser ciertas la teoría es verificada y, si no lo son, la teoría es refutada. Por ejemplo, según la teoría de la relatividad general de Einstein el Sol curva la luz en una magnitud concreta:

Otra verificación astronómica famosa de la relatividad general es la predicción de Einstein de que el Sol curva la luz. La gravitación newtoniana también predice esto, pero la relatividad general predice una cantidad de curvamiento que es dos veces mayor. El eclipse solar total de 1919 proporcionó una oportunidad para distinguir los dos, y Sir Arthur Eddington organizó una expedición, finalmente anunciando que Einstein se imponía. Esto fue aceptado con entusiasmo en la época, pero más tarde se hizo claro que los datos eran pobres y el resultado fue cuestionado. Observaciones independientes adicionales de 1922 parecían estar de acuerdo con la predicción relativista, como lo estuvo un reanálisis posterior de los datos de Eddington. En la década de los sesenta del siglo XX, se hizo posible hacer las observaciones para radiaciones de radiofrecuencia y, solo entonces, fue seguro que los datos sí que mostraban una desviación dos veces mayor que la predicha por Newton e igual a la que predijo Einstein.
Otro buen ejemplo de teoría verificada por sus predicciones es la tabla de elementos de Mendeleiev:

En 1871, Mendeleiev predijo la existencia de tres elementos desconocidos en su tiempo, llegando a señalar sus propiedades más destacadas (incluyendo el peso atómico aproximado). Estas predicciones se vieron confirmadas pronto: en 1875, el francés Paul Émile Lecoq de Boisbaudran (1838-1912) anunciaba el descubrimiento del galio (ekaboro para Mendeleiev); en 1879, el sueco Lars Fredrik Nilson (1840-1899) hacía lo propio con el escandio (ekaluminio), y en 1886, el alemán Clemens Alexander Winkler (1838-1904) descubría el germanio (ekasilicio).
Ejemplos de teorías refutadas por las observaciones serían el modelo geocéntrico de Ptolomeo y la teoría del flogisto. Aunque ambas teorías fueron válidas durante bastante tiempo finalmente acabaron siendo desplazadas por teorías mejores. Durante ese proceso, para acomodar las observaciones que no encajaban se hacían modificaciones ad hoc (añadiendo epiciclos y deferentes en el primer caso, asignando al flogisto un peso negativo en el segundo) que complicaban la teoría o introducían problemas nuevos.

Las explicaciones teológicas que se proponen como alternativa a teorías científicas se comportan igual que las malas teorías: cambian con cada nueva observación para acomodarse a ellas. Esto tiene la ventaja de que la teoría, efectivamente, se adapta a las pruebas lo que, según sus proponentes, prueba que son ciertas. El problema es que cualquier creencia, por rídicula que sea, puede hacerse encajar con las pruebas disponibles. Stephen Law pone el siguiente ejemplo:

Dave believes dogs are spies from the planet Venus. He views any canine with great suspicion, for he believes they are here from Venus to do reconnaissance work. Dogs, Dave supposes, secretly send their reports back to Venus, where the rest of their fiendishly cunning alien species are meticulously planning their invasion of the earth. Their spaceships will shortly arrive from Venus to enslave the human race and take over the world.

Unsurprisingly, Dave's friends think he has a screw loose and try to convince him that dogs are comparatively benign pets, not cunning alien spies. Here's a typical example of how their conversations with Dave go.

 DAVE: It's only a matter of weeks now! The spaceships will arrive and then you'll wish you'd listened to me. We must act now—let the government know!
MARY: Look, Dave, dogs are pretty obviously not space invaders, they're just dumb pets. Dogs can't even speak, for goodness sake, let alone communicate with Venus!
DAVE: They can speak—they just choose to hide their linguistic ability from us. They wait till we leave the room before they talk to each other.
PETE: But Venus is a dead planet, Dave. It's horrifically hot and swathed in clouds of acid. Nothing could live there, certainly not a dog!
DAVE: Dogs don't live on the surface of Venus, you fool—they live below, in deep underground bunkers.
MARY: But then how do earth-bound dogs communicate with their allies on Venus? I've got a dog, and I've never found an alien transmitter hidden in his basket.
DAVE: They don't use technology we can observe. Their transmitters are hidden inside their brains!
MARY: But Pete is a vet, and he's X-rayed several dog's heads, and he's never found anything in there!
PETE: In fact, I once chopped up a dog's brain in veterinary school—let me assure you, Dave, there was no transmitter in there!
DAVE: You're assuming their transmitters would be recognizable as such. They are actually made of organic material indistinguishable from brain stuff. That's why they don't show up on X-rays. This is advanced alien technology, remember—of course we cannot detect it!
MARY: But we don't detect any weird signals being directed at Venus from the earth.
DAVE: Of course, we don't—like I said, remember, this is advanced alien technology beyond our limited understanding!
PETE: How do dogs fly spaceships? They don't even have hands. So they can't hold things like steering wheels and joysticks.
DAVE: Really, Pete. Think about it. You are assuming that their spacecraft will be designed to be operated by human hands. Obviously they won't. They'll be designed to be maneuvered by a dog's limbs, mouth, tongue, and so on.
Como vemos, con cada pregunta Dave añade un «epiciclo» para ajustar su descabellada hipótesis con las observaciones. Muchos de estos ajustes son, además, imposibles de comprobar lo que hace imposible falsificar su teoría, una falta de rigor científico característica de este tipo de explicaciones.

Todos nosotros usamos parte del método científico cada día. ¿Nos gustará esto que probamos por primera vez? ¿Estará peor el tráfico esta mañana? ¿Debería aceptar este nuevo trabajo? Respondemos estas preguntas con predicciones basadas en nuestras propias teorías sobre cómo funciona el mundo o cómo somos nosotros. El método científico dicta que cuando nos equivocamos lo que deberíamos hacer es revisar nuestra teoría. Sin embargo, lo que solemos hacer es poner excusas, igual que hicieron los expertos entrevistados por Tetlock: «no ha pasado pero pasará», «lo que en realidad quise decir era esto otro», «no ha ocurrido por poco», etcétera. Hacer esto es síntoma de que nuestra teoría es errónea lo que significa, a su vez, que no sabíamos tanto como pensábamos.

Continuará.

lunes, 5 de diciembre de 2016

Grasa (y III)

Antes de entrar en materia haré mías las palabras de Scott Adams y les recordaré que nunca es buena idea aceptar consejos de un bloguero cualquiera, y es cien veces menos aconsejable si el tema es la salud. Hecha la descarga de responsabilidad, sigamos hablando de las grasas.

Foto de Cristian
Empezaremos por lo más fácil, concretamente por ese tipo de grasa que solo tiene desventajas: las total o parcialmente hidrogenadas. Este tipo de lípido, ingrediente común de la margarina y la bollería industrial entre otros, contiene ácidos grasos trans, los cuales se consideran dañinos para la salud (causantes de enfermedades coronarias y diversos tipos de cáncer) independientemente de la dosis, por lo que no hay un nivel de consumo que pueda calificarse como «seguro» (igual que ocurre con el tabaco). Debido a sus riegos, estos aceites han ido desapareciendo de los alimentos. En Estados Unidos, la FDA dio en 2015 un plazo de tres años para su eliminación de todos los alimentos. En Europa, países como Dinamarca, Austria, Hungría e Islandia han limitado por ley su presencia a meras trazas, mientras que la Comisión Europea trabaja en una prohibición a nivel de la Unión.

Si las grasas hidrogenadas son un «no» rotundo, su opuesto es el aceite de oliva. Obsérvese que hablamos de aceite de oliva en concreto y no de grasas monosaturadas en general, siendo la razón que no se sabe con certeza si las propiedades cardioprotectoras de este alimento se deben a su perfil lipídico o a sus antioxidantes.

Entremos a continuación en la zona nublada y gris, allí donde se mezclan ciencia, supersticiones, ideologías y grupos de presión. Consideremos, verbigracia, las grasas de origen animal, las cuales son frecuentemente saturadas. ¿Son perjudiciales para la salud cardiovascular?

Quienes dicen que no tienen de su parte (entre otros) a Siri-Tarino cuyo metaanálisis de veintiún estudios que incluyeron a 347.747 pacientes concluyó: «no significant evidence for concluding that dietary saturated fat is associated with an increased risk of CHD or CVD [cardiovascular disease]». Los del bando contrario tienen a T. Colin Campbell, uno de los directores del estudio China–Cornell–Oxford Project cuyos resultaron publicaron en el libro The China Study. En dicho libro los autores afirman: «eating foods that contain any cholesterol above 0 mg is unhealthy».

Aquí es donde el debate se pone interesante. Campbell puso en entredicho el método de Siri-Tarino:

Campbell notes the practice of replacing high-fat animal foods with low-fat animal foods, which is common in the studies analyzed by Siri-Tarino: “If one kind of animal-based food is substituted for another, then the adverse health effects of both foods, when compared to plant-based foods, are easily missed.” Discussing the Nurses' Health Study, a well-known study analyzed in Siri-Tarino, and which employed methodology typical of Siri-Tarino's other subject studies, Campbell writes:
It is the premier example of how reductionism in science can create massive amounts of confusion and misinformation, even when the scientists involved are honest, well-intentioned and positioned at the top institutions in the world. Hardly any study has done more damage to the nutritional landscape than the Nurses' Health Study, and it serves as a warning for the rest of science for what not to do.
Para mayor escarnio, el metaanálisis mencionado fue financiado por el National Dairy Council cuyo interés es, obviamente, demostrar que la grasas saturadas de la leche y el queso no solo no son nocivas sino que tienen efectos saludables. Súmenle a ello la ironía en la muerte del doctor Atkins:

In 2002, the Atkins Diet's founder and chief proponent had a heart attack. Rather than let the ailing physician recover in peace, critics seized the opportunity to speak out against the low-carb, high-fat diet he had followed for years. Atkins denied his diet was to blame, instead citing a chronic infection. But when bad luck visited the doctor again the following year and he died after a serious fall, the coroner's report noted that he had a history of heart attacks, congestive heart failure, and high blood pressure—all associated with eating too much saturated fat.6 He was six feet tall and weighed 258 pounds at death, yielding a body mass index of 35 and placing him in the severely obese category. The Atkins Diet may not have single-handedly killed its founder and chief proponent, but it seems to have caused a number of life-threatening health problems likely to have killed him eventually.
Por otro lado, el estudio de Campbell tiene sus propios problemas, como el hecho de tratarse de un estudio epidemiológico y de no haber sido publicado en una revista revisada por pares (críticas a las que el propio Campbell respondió). También hay cierta polémica existente alrededor de la muerte de Atkins,  con testimonios que afirman que su peso en el momento de la muerte era debido a un edema.

Podríamos seguir así eternamente. Elijan su filosofía (vegetariana, carnívora, vegana, paleo) y, como siempre, encontrarán muchos estudios para sustentarla. Es un ejemplo perfecto de cómo la ciencia y su incertidumbre puede adaptarse a gusto del consumidor. Como dice Scott Adams:

[L]a nutrición se presenta como una ciencia, pero en realidad en torno al 60 por ciento no es más que un cúmulo de chorradas, suposiciones, hipótesis incorrectas y marketing.

En ciertas áreas reducidas, la ciencia nutricionista es razonablemente sólida. Los investigadores saben que las embarazadas necesitan vitamina E. Sabemos que la vitamina C es necesaria para evitar el escorbuto. Y los datos sugieren cosas positivas sobre la vitamina D. Existen otras vitaminas que también son claramente beneficiosas. Pero si se fija en cualquier estantería llena de productos con vitaminas y minerales en una tienda, la mayoría de ellos no se ha estudiado hasta el punto en que usted querría teniendo en cuenta que son productos para la salud.
Es imposible saber con precisión qué debe comer y con cuánta frecuencia debe hacerlo. La ciencia nutricionista está increíblemente incompleta. Como mucho, podrá evitar los errores dietéticos evidentes.
Parece que aún no sabemos lo suficiente sobre el efecto de las grasas en la salud. Las grasas saturadas son aún controvertidas, en parte porque hay muchos tipos de las mismas, por lo que si se estudian conjuntamente pueden obtenerse conclusiones equívocas. Lo mismo puede decirse del colesterol. Además, dejando a un lado los aceites, los lípidos no suelen ingerirse aisladamente sino que forman parte de una carne, pescado, fruto seco o vegetal cuyos otros componentes también afectan a la salud. Por ejemplo, aunque las grasas saturadas fueran inocuas el hecho es que la carne roja procesada es probablemente carcinógena. Por otro lado, cada cual tiene su propia fisiología, enfermedades, antecedentes familiares y estilo de vida.

Para poder aislar todas las variables mencionadas y lograr una conclusión sólida se necesitan muchísimos más estudios pero, por desgracia, probablemente gran parte de ellos sean financiados por gente con algún tipo de agenda. Igual que ocurre en la industria farmacéutica los productores de alimentos pagan sus propias investigaciones cuyos resultados (¡oh, sorpresa!) siempre les son favorables.

Mientras la niebla se dispersa aquellos que estamos preocupados por nuestra alimentación haremos lo que entendemos como mejor según el conocimiento que tenemos. Para mí, eso significa eliminar los alimentos procesados y mis queridos dulces, incluyendo los deliciosos postres que prepara mi hermana. También debería comer más legumbre y menos carne, probablemente. Más allá de eso, toda opción parece debatible y carente de garantías.

lunes, 11 de abril de 2016

Seis cosas que quizás preferirías no saber

Me gusta leer libros sobre otras profesiones, aquellos en los que el autor relata sus experiencias en algún campo laboral diferente o llamativo, ya sea medicina, políticaWall Street, comandos de las fuerzas especiales o deportes profesionales. A través de dichas obras te das cuenta de que la propia no es la única profesión en la que suceden cosas que claman al cielo y que harían que el resto de la población se llevara las manos a la cabeza si las supiera.

Hoy les traigo un pequeño florilegio de trapos sucios de distintos oficios. Recuerden, antes de seguir leyendo, aquel viejo aforismo según el cual hay cosas que es mejor no saber cómo se elaboran, como las leyes y las salchichas.


Leyes hechas por empresas

Aseguran los políticos que hablar con los grupos de presión (lobbies) les ayuda a conocer en profundidad un tema sobre el que haya que legislar, y a tener visiones distintas sobre él. Argumentan que no pueden saber de todo ni conocer las consecuencias de cada aspecto de cada ley, así que se apoyan en empresas privadas para analizar los aspectos técnicos de una nueva ley. En la práctica, todos sabemos que ese loable objetivo acaba materializándose en desmadres como las tarifas de electricidad o las autopistas radiales de Madrid. Es el hecho que todo grupo de presión bien formado tiene línea directa con el gobierno y solo le preocupan sus propios intereses, aunque ello signifique un perjuicio de la sociedad en general. Sus tácticas no solo consisten en presionar directamente a los congresistas, sino también en manipular la opinión pública:

Una de las primeras frustraciones del Gobierno de Zapatero fue cuando tuvo que retirar la ley que controlaba el consumo de alcohol de los menores de 18 años y su publicidad en los medios de comunicación. Desde el momento en que el proyecto fue anunciado por la entonces ministra de Sanidad, Elena Salgado, una serie de sectores se levantaron en armas contra el proyecto. Sobre todo cuando el ministerio presentó una campaña con datos científicos contrastados, para tratar de convencer a la sociedad de que el consumo de alcohol en menores produce un retraso irreversible en la maduración cerebral.

«Una marca muy conocida de vino de mesa salió en tromba contra nosotros —relata José Martínez Olmos, quien pronuncia sin duda uno de los discursos más críticos y escépticos con respecto a la capacidad de los distintos Gobiernos para imponer sus criterios a los grupos de interés—, ya que la prohibición del consumo a menores les hacía mucho daño, porque éstos cuando consumen vino es fundamentalmente vino barato con Coca-Cola, calimocho. Utilizaron todos sus medios de presión para influir en las líneas editoriales de la prensa regional y nacional, arremetieron contra nosotros y dijeron que era una ley contra el vino.»

Consiguieron movilizar a la opinión pública con ideas fuerza como que el vino es bueno para la salud, y es cultura de nuestro país, y movilizaron también a los trabajadores diciendo que la ley iba a perjudicar económicamente al sector. Se presionó para que se sacara al vino de la ley, es decir, para que se prohibiera a los menores beber todo tipo de alcohol excepto el vino, por ser de baja graduación, cuando el alcohol, sea el que sea, perjudica igual, independientemente de su graduación.
Médicos de urgencia sin experiencia

En teoría, los médicos internos residentes (MIR) de primer año están supervisados por un adjunto en todo momento. Sin embargo, estos médicos que todavía no han aprendido a ejercer su profesión en la práctica se encuentran a menudo abandonados a su albur, atendiendo pacientes como buenamente pueden y aprendiendo sobre la marcha, rotando entre especialidades no relacionadas con la que eligieron. Para mayor escarnio, ocurre que la mayoría del personal de Urgencias está formado por residentes, lo que da lugar a situaciones como la siguiente:

Una vez, en la Urgencia de mi hospital, un niño que estaba en la sala de espera tuvo una reacción alérgica brutal y sufrió un broncoespasmo [los bronquios se estrechan y el aire no llega a los pulmones]. Se estaba ahogando, pero como allí no había Pediatría los propios adjuntos no sabían muy bien qué hacer y todos me miraban a mí, que soy de Familia, porque en ese momento estaba haciendo la rotación pediátrica en otro centro de la zona.
Yo temblaba como un descosido. En cualquier otra situación el problema lo habría resuelto un adjunto, pero los míos no estaban familiarizados con las dosis infantiles y toda la responsabilidad recaía sobre mí, que aparte de todo, no había visto un broncoespasmo en mi vida. Le dimos los broncodilatadores y todo salió bien, pudimos controlar la crisis y le remitimos a Pediatría, pero yo no pude dejar de temblar en lo que quedaba de guardia.
Fraude en la ciencia

Este asunto ya lo comentamos de pasada en su momento. La ciencia está hecha por personas y, a consecuencia de ello, a veces se violan códigos éticos con tal de destacar, obtener financiación o conseguir que un trabajo sea publicado:

In a 2000 survey of biostatisticians, half said they personally knew of research studies that involved fraud, and of that group, about half went on to say that the fraud involved the fabrication or falsification of data. Just under a third of all respondents admitted to having personally been involved in a project in which there had been some form of research misconduct. In a 2001 survey of hospital medical consultants, 56 percent said they had observed research misconduct, 6 percent admitted to having committed it themselves, and 18 percent said they thought they would commit it in the future. A 2005 survey of the authors of clinical drug trials reported that 17 percent of the respondents personally knew of fabrication in a research study within the past ten years, with 5 percent having been directly involved in a study in which there had been fabrication. In a study by the American Physical Society, 13 percent of young physicists said they had observed other physicists intentionally misreporting research. [...] Altman and colleagues examined a total of 190 published randomized drug trials and found that 65 percent of the findings associated with harm caused by a drug were not fully reported in the published results—a sobering thought for those taking any medication—but only 14 percent of the authors of these trials admitted to underreporting.
Agua potable desperdiciada

Recuerdo haber leído de pequeño que buena parte del agua potable se perdía en la propia distribución. Pues bien, el porcentaje parece ser nada desdeñable y quienes deberían poner de su parte para solucionar el problema no parecen muy preocupados al respecto:

En una de las entregas de chalets, estuve presente durante el control de la instalación de agua de la calle por el inspector de la compañía. Se cerraron todas las llaves de las casas y se abrió la general del vial; él miró su pantalla un momento y dijo: «Hay una fuga». Que es como el policía de aduanas que detiene al chico justo cuando creía que pasaba y le pide que abra su maleta. La urbanizadora debía romper toda la calzada buscando la pérdida mientras se paralizaba una entrega de viviendas para la que ya se había dado fecha a los vecinos, un auténtico desastre. Pero él parecía ajeno al problema; más bien parecía ajeno a todo:

—Entonces tendremos que abrir para buscar la fuga, ¿no?

Y me miró como si me hubiera vuelto loco:

—¿Abrir toda la calle para buscar una fuga? Eso es imposible. ¿Y si no la localizáis? Mira el contador, es pequeña. ¿Sabes cómo aparecerá? Por el blandón que saldrá en el asfalto dentro de cinco o seis años, estará debajo, es lo que tardará en lavar la base. ¿Tú crees que eso tiene importancia? Tío, en Madrid nos faltan los planos de toda la red de abastecimiento del siglo XIX, hay ramales que no sabemos dónde van a parar, más de un 20 % del consumo del Canal se pierde y no sabemos ni dónde, debe de haber cientos de acometidas soltando agua hacia ningún sitio. ¿Y vais a buscar una mierda de fuga?
Televisión sin escrúpulos

En mayor o menor medida, creo que los telespectadores son conscientes de que lo que ven en televisión es mentira: los telediarios están manipulados por los políticos, los realities versan acerca de ficciones inducidas y los programas del corazón son un gran circo. Junto a ellos se sitúan los programas de testimonios, otrora tan populares, que gustan de hacer espectáculo a base de sentimientos y dolor ajeno. Lo que no sospecha quien se ofrece a participar en ellos es el trato que va a recibir en realidad (mayúsculas en el original):

Tema [del programa]: No tengo complejos. Buscamos gordos y gordas felices, tullidos, feos incluso.

1. Cruzar límites. Jamás les dices a los gordos que van a exponerse. Vas a ir a buscar a los desacomplejados donde sea. Si hay que hacerle la envolvente a una asociación de discapacitados para que te dé dos o tres nombres de gente con problemas físicos, se le hace la envolvente. Luego llamarán al programa, para quejarse, pero ya será tarde. Tú habrás conseguido a la chica aquella que iba en silla de ruedas y buscaba novio.
2. Mentir. No le dices que te espanta su cuerpo, que te resulta vulgar, que detestas sus maneras y sus modos, tú, tan refinada. Le cuentas que el programa va a ser divertido. Y si ella te dice que le gusta bailar, ya lo tienes. La vas a convencer, desde el buen rollo para que se marque un bailecito sexy en plató, con sus michelines bamboleando, que en antena resultará patético a todas luces.

3. Rastrero. Imaginemos que no entra al trapo. No, no quiero bailar. No le insistirás, pero en plató rematas: suena la música y la presentadora dice, me han dicho que te encanta bailar, y entonces jaleada por el público, la chica no tendrá mas remedio que contonearse. Se lo pide LA TELE.

4. En la reunión de contenidos hablas de ellos como lo que son: pobre gente. Te ríes con tus compañeros de sus miserias, de sus frases absurdas, de sus cuerpos. A veces haces bromas hirientes.

5. La chica te contó medio llorando que antes sí tenía complejos, que un chico le hizo mucho daño, que la ridiculizó ante sus compañeros de instituto. Ella creía que le gustaba de verdad, un día él la citó en el gimnasio y la besó, y cuando estaba a punto de follársela, aparecieron los otros, muertos de risa, con móviles en la mano. Te dice que eso no quiere contarlo. Pero es que ESO es el TEMA. Así que en la reunión de contenidos lo sueltas. El tema se le apunta a la presentadora, que en plató dice: me han contado que una vez te hicieron mucho daño, ¿no, Marisa? Marisa balbucea, se queda un poco sorprendida. Luego, abrumada, se viene abajo, y ante la falsa condescendencia de la conductora del espacio, llora, y LO CUENTA. Y tú te regodeas en el control, para qué negarlo.

Picaresca con regalo en viviendas de nueva construcción

Uno de los múltiples sistemas para violar la ley sin que se note en las viviendas nuevas son las buhardillas ocultas. La trampa consiste en dejar un hueco tapado con escayola en una de esas típicas casas de urbanización de dos pisos. De esta manera el propietario obtiene una planta nueva que no computa en las escrituras con tan solo dar unos martillazos. El caso es que estas buhardillas ocultas a veces incluyen una desagradable sorpresa:

Lo más bonito de las buhardillas sin escalera era la intimidad que ofrecían: en un alto, a salvo de miradas indiscretas y acariciado por la brisa fresca. Eran el paraíso para ir a desahogar las necesidades físicas después de una buena pitanza. [...]

En fin, que en el tiempo en que quedaban abiertas hasta que cerrábamos el hueco de escayola se convertían en un sembrado de boñigas. He llegado a contar seis, siete en cuatro metros, lo que siempre me hizo dudar: entiendo al primero que sube allí a deshacerse del sobrante, pero ¿el séptimo?

Los que más lo sufrían y más nos lo harían sufrir eran los del proyectado. Las buhardillas ocultas, puesto que iban a ser utilizadas, se aislaban igual que el resto de la casa, pero se trataba de locales sin ningún tipo de ventilación ni luz, como una mina. Para colmo de males, cuando les tocaba subir, lo primero que se encontraban, a pesar de que se enviaba antes a un peón a limpiar, eran tres o cuatro mierdas esparcidas por el suelo. [...] Como iban a destajo, en vez de molestarse en avisar al encargado para que las retirasen, les enchufaban espuma y las cubrían: se quitaban de la vista, el olor y empezaban a trabajar. Ese siempre era el primer paso de su protocolo. Cuando salían de la buhardilla dejaban proyectadas las paredes y el techo y tres o cuatro bultos sospechosos de espuma por el suelo. El problema es que el aislante mantiene en perfecto estado la materia orgánica, como el aluminio. Lo que dejaban cubierto nunca se secaba.
Unos meses más tarde, los vecinos rompían el falso techo, subían a su buhardilla, descubrían la ventana y admiraban orgullosos los cincuenta metros cuadrados de vivienda que no computaban. Entonces se fijaban en los cuatro pegotes de espuma amarilla que afeaban el suelo, cogían la pala y se decidían a quitarlos. Y siempre recé porque usasen la pala, era mucho peor con la escoba.

lunes, 26 de octubre de 2015

Regreso al futuro

Escribir tan solo una vez por semana tiene la desventaja de que cuando uno quiere hablar de cierto tema de actualidad el público está tan saturado que no quiere saber nada más del asunto. Aún así, permítanme que hoy les hable de viajes en el tiempo.

Foto de Rooners Toy Photography
Como ya sabrán (a menos que hayan pasado la última semana ocultos en una caverna de Marte con algodón en los oídos), el pasado veintiuno de octubre era la fecha a la que llegaba del pasado Marty McFly, el protagonista de las comedias de ciencia ficción Regreso al futuro, en la segunda parte de la saga. Recordarán, no obstante, que en la primera película el viaje es hacia el pasado, en concreto a 1955. Las tramas de la trilogía giran en torno a las paradojas que conlleva un viaje en el tiempo.

En 1976, el filósofo norteamericano David Lewis publicó un artículo titulado The paradoxes of time travel en el que analizaba la posibilidad lógica de los viajes en el tiempo. Dicho artículo es un tanto abstruso pero, afortunadamente, el profesor de la universidad de Edimburgo Alasdair Richmond ofrece un accesible resumen del mismo en el curso Introduction to Philosophy disponible en Coursera. Lo que sigue en adelante es básicamente un resumen de la explicación de Richmond.

Antes de empezar a hablar del trabajo de Lewis es importante recalcar que él no trataba de dilucidar la posibilidad física de tales viajes, o si había viajeros del tiempo entre nosotros. Este autor simplemente trataba de esclarecer si es posible viajar en el tiempo sin incurrir en contradicciones lógicas.

Otra observación a tener en cuenta es que este filósofo consideró el tiempo como algo lineal, es decir, unidimensional. Si se considerara el tiempo como algo bidimensional (como un plano), un viajero del tiempo podría viajar hacia atrás en la historia y cambiar el futuro, creando universos paralelos o nuevas líneas temporales como ocurre en la película. En su artículo, Lewis analiza únicamente los viajes en el tiempo donde hay una sola línea temporal y, por tanto, no es posible crear futuros alternativos.

Lewis distingue dos tipos de tiempo. Uno es el tiempo externo, marcado por la rotación terrestre, o por el movimiento de la Tierra alrededor del Sol y en la galaxia. Otro es el tiempo personal, aquel que viene marcado por nuestros procesos internos: la velocidad a la que digerimos los alimentos, los latidos del corazón, el ritmo al que aprendemos o almacenamos recuerdos, etcétera. En un viaje al futuro tanto el tiempo externo como el personal tienen la misma dirección, si bien la duración es distinta (por ejemplo, en el caso que nos ocupa Marty avanza treinta años de tiempo externo en un instante de tiempo personal). En cuanto a los viajes al pasado, los tiempos personal y externo difieren tanto en duración como en dirección.

La paradoja más conocida sobre los viajes hacia atrás en el tiempo es, sin duda, la paradoja del abuelo, aquella en la que una persona viaja atrás en el tiempo y mata a su abuelo. Eso implica que su padre no puede nacer y, por tanto, él tampoco. En consecuencia, él no puede existir. He ahí la contradicción. Una versión de dicha paradoja es el argumento principal de la película de 1985: Marty viaja al pasado y lo cambia de manera que sus padres no se enamoran, lo que significa que él no nacerá en el futuro y, por consiguiente, su existencia desaparecerá. La trama de la película se centra en deshacer el entuerto y volver a su época.

Lewis desmonta la paradoja del abuelo argumentando que el hecho de que pudiéramos viajar hacia atrás en el tiempo no implica necesariamente que pudiéramos hacer cualquier cosa en él. Tengamos que en cuenta que algo puede ser posible referente a un conjunto de hechos, pero puede ser imposible respecto a otro conjunto de hechos diferente o más amplio. Por ejemplo, para un mono no es posible hablar alemán, afrikaans y chino, pues no tiene los órganos necesarios para ellos. Sin embargo, para mí sí es posible, pues tengo dichos órganos y puedo hablar. Sin embargo, no tengo el entrenamiento ni la motivación ni el tiempo necesarios para aprender esos tres idiomas, por lo que –según este conjunto de hechos más amplio– no es posible para mí hablarlos. Así, Marty McFly no podría matar a su padre en 1955 por mucho que lo intentara porque este seguía vivo en 1985. En cada intento algo se lo impediría o fracasaría de alguna manera.

¿Significa eso que si, lográramos viajar al pasado, estaríamos obligados a ser una especie de testigo fantasma que no puede interactuar con el mundo? Según Lewis, no. Él distingue dos maneras en las que se puede cambiar el pasado: cambios que suponen un reemplazo frente a cambios que suponen un contrafactual. Romper un vaso es un ejemplo de cambio con reemplazo: el vaso intacto es reemplazado por un montón de trozos de cristal. Lewis sostiene que este tipo de cambios pueden sucederle a objetos, pero no al tiempo.

Para explicar lo que es un cambio contrafactual, piensen en cómo se conocen originariamente los padres de Marty. El padre de Lorraine atropella a George cuando este cae del árbol, lo mete en casa para curar sus heridas y Lorraine siente tanta lástima de él que lo invita al baile, donde finalmente se enamoran. Si George no se hubiera caído del árbol no habría habido atropello, Lorraine no habría invitado a George al baile y no se habrían enamorado. Ese es el contrafactual. Nótese que esto no es un reemplazo: no existía una historia en la que George no cayera y sufriese el atropello que fuera reemplazada por otra versión en la que sí se cae. El incidente del atropello tiene lugar una sola vez. Es una diferencia sutil pero importante.

Lewis sostenía que los viajeros en el tiempo pueden ejercer su impacto en la historia en lo que a contrafactuales se refiere, pero no pueden hacer cambios que supongan un reemplazo. Es perfectamente posible desde el punto de vista lógico que la historia refleje de forma consistente el impacto de estos viajeros temporales. De hecho, esto es casi lo que ocurre en la película, pues Marty McFly es el causante de que George caiga del árbol, si bien en este caso al final atropellan a Marty y no a George. Pero de haber ocurrido todo igual, esto es, de haber sido atropellado George, Marty habría tenido un impacto contrafactual en la historia (es el causante de la caída de George desde lo alto del árbol) sin haberla cambiado.

Hay más paradojas relacionadas con el viaje en el tiempo aparte de la paradoja del abuelo. Una de ellas son los bucles de causalidad. Digamos que nos montamos en el DeLorean, viajamos a la España de Cervantes y le damos al celebérrimo autor una copia de sus propios trabajos antes de que él haya escrito nada. Él los copia, los publica y se convierte en el autor inmortal que conocemos. En ese caso ¿quién ha escrito El Quijote? El autor no puede ser el propio Cervantes, porque lo único que ha hecho ha sido copiar unos textos que le hemos llevado desde 2015. Por otro lado, lo que le hemos dado son las obras completas de Cervantes. De nuevo tenemos una paradoja. ¿De dónde viene la información contenida en El Quijote? ¿Cuándo se generó? ¿Cuándo entra en la Historia?

Lewis diría que nadie escribió El Quijote, que dicho libro simplemente existe. Esta afirmación parece ir en contra del sentido común. ¿Acaso el libro surge de la nada? Lewis observa que, en realidad, nunca sabemos de dónde viene la información. Para entender por qué, hay que fijarse en el hecho de que, si bien es fácil saber la causa de un evento concreto (a George le atropellan porque cae del árbol), es imposible averiguar el origen de una cadena de eventos.

Las cadena de eventos puede ser de tres clases: cadenas lineales infinitas, cadenas lineales finitas y los bucles causales de los que hemos hablado. Las cadenas lineales infinitas son explicaciones que se extienden hacia atrás indefinidamente en el tiempo. Un evento tiene una causa que a su vez tiene otra causa que tiene otra causa... y así ad infinitum. En este caso, para cada evento hay una causa anterior y, por tanto, no hay una respuesta a la pregunta «¿de dónde viene esta cadena de eventos?». La cadena de eventos en sí misma no tiene ningún origen.

Las cadenas lineales finitas implican que la información surge de la nada. Esto, que parece ridículo, es algo que los físicos se toman muy en serio, pues parece que las leyes del Universo permiten que ocurran cosas sin causa previa. Por ejemplo, según la cosmología del Big Bang, la gran expansión inicial es el primer evento y supone el nacimiento del tiempo. Por tanto, no tiene sentido preguntarse que había antes del Big Bang, pues el tiempo empieza a existir con el Big Bang. Pero el Big Bang en sí mismo no tiene causa anterior. La cadena causal es finita pero su comienzo parece surgir de la nada.

Los tres tipos de cadenas de eventos plantean la misma pregunta: ¿de dónde viene la información? Sí, los bucles causales son extraños y contraintuitivos, pero no menos problemáticos que los otros dos tipos de cadenas causales. En los tres casos la información parece venir de la nada. Así, desde el punto de vista lógico, estos bucles no son un impedimento para hacer viajes hacia atrás en el tiempo.

Existe toda una rama de la metafísica especializada en cuestiones relacionadas con el tiempo y, en particular, aquellas que tienen que ver con viajes en el tiempo de las que el análisis de Lewis es solo un punto de partida. Hay muchas otros interrogantes interesantes que pueden analizarse. Por ejemplo, ¿puede un viajero del tiempo encontrarse consigo mismo de joven? Eso significaría estar simultáneamente en dos sitios a la vez. ¿Las leyes físicas permiten tal cosa? Otra cuestión tiene que ver con el multiverso. Según los filósofos David Deutsch y Michael Lockwood, quien viaja en el tiempo debería poder ser autónomo a nivel local y, por tanto, ser capaz de obrar cambios de todo tipo. En este caso, se producirían desdoblamientos en la historia, tal como ocurre en la segunda parte de Regreso al futuro. Obsérvese, no obstante, que si cambiamos el pasado entramos en una nueva línea temporal. Es decir, en realidad no hemos viajado al pasado de la línea temporal de la que partimos, sino a una nueva. Técnicamente, eso no constituye realmente un viaje al pasado, pues no es nuestro pasado.

Stephen Hawking se preguntaba: si el viaje en el tiempo es posible ¿dónde están esos viajeros temporales? Filósofos como John Earman han argumentado que quizá sea imposible para un viajero en el tiempo interactuar con la gente del pasado, pero tal vez haya otra razón. Cuando los físicos hablan de viajes en el tiempo mencionan una posibilidad llamada closed time-like curves (CTCs). Las CTCs son caminos en el espacio-tiempo que llevan al punto de partida. Esto permite viajar hacia atrás en el tiempo pero solo hasta el punto en que la curva fue creada. De manera que si creáramos una máquina del tiempo en 2016 a partir de entonces podríamos viajar hacia atrás en el tiempo, con la limitación de que solo podríamos remontarnos hasta 2016, momento en que se originó la CTC. En conclusión, quizá no vemos a ningún viajero del tiempo porque dichos viajes no son posibles todavía.

En cualquier caso, está por ver si las leyes de la física nos permiten construir máquinas del tiempo. John Earman sostiene que su construcción podría ser posible pero que tal vez tengan el inconveniente asociado de que no podamos controlarlas. Podría darse el caso de que fuéramos capaces de crear un mecanismo para hacer diverger el tiempo externo del personal, así como alumbrar una región del universo en la que los viajes en el tiempo sean posibles, pero que no supiéramos las consecuencias que ello tendría.

Si todo esto les ha interesado, la enciclopedia filosófica en línea de la universidad de Stanford tiene un extenso artículo sobre viajes y máquinas del tiempo. En cuanto a las leyes físicas pertinentes, el escritor y divulgador científico Brian Clegg es el autor de How to Build a Time Machine: The Real Science of Time Travel. No lo he leído, pero los libros de Clegg son accesibles para cualquier lego en la materia. Y, como siempre, si ustedes conocen alguna referencia interesante pueden dejarnos un comentario.

Saludos desde el pasado.

lunes, 12 de octubre de 2015

Negacionismo

Es posible que recuerden aquel capítulo de Los Simpson en el que Lisa encuentra un esqueleto un tanto peculiar al que los habitantes de Springfield acaban rindiendo culto, pues consideran que pertenece a un ángel. Mientras Lisa defiende en televisión su escepticismo tiene lugar el siguiente diálogo en la parroquia:
Moe: ¡Ciencia! ¿Qué ha hecho la ciencia por nosotros? Aparte de la tele.
Flanders: La ciencia es como esos bocazas que te destripan las películas contándote el final. Opino que hay ciertas cosas que no queremos saber. ¡Y cosas importantes!
Acto seguido, una turba enfurecida ataca el museo de ciencias naturales de Springfield. Es un magnífico episodio que trata sobre escepticismo, ciencia, ontología, capitalismo y religión. Retrata fielmente ese aspecto de la naturaleza humana que nos permite abrazar algo (en este caso, la ciencia) y rechazarlo simultáneamente, lo cual queda patente en las palabras de Moe cuando, tras quedar herido en su asalto al museo, dice: «he quedado paralítico, espero que la ciencia médica me cure».

Foto de Mars P.
El periodista Michael Specter explora algunas de las razones por la que las personas rechazan la ciencia en su libro Denialism: How Irrational Thinking Harms the Planet and Threatens Our Lives. La primera de ellas es que la ciencia nos da miedo. Según este autor, la ciencia nos ha fallado: prometía progreso sin límites y soluciones a todos los problemas del mundo, pero nos hemos encontrado con que cada nuevo avance viene acompañado de nuevos problemas. Sucesos como la tragedia del Challenger, el accidente de la central nuclear Chernóbil o escándalos farmacéuticos como el Vioxx y la talidomida nos hacen replantearnos nuestras expectativas acerca de la ciencia, generan dudas sobre la misma y nos recuerdan los peligros y las consecuencias no intencionadas del progreso científico y tecnológico. Dado que no nos fiamos de la ciencia, acabamos desarrollando soluciones para problemas globales que muchos no se atreven a usar, como los alimentos transgénicos o las vacunas:

Our technical and scientific capabilities have brought the world to a turning point, one in which accomplishments clash with expectations. The result often manifests itself as a kind of cultural schizophrenia. We expect miracles, but have little faith in those capable of producing them. Famine remains a serious blight on humanity, yet the leaders of more than one African nation, urged on by rich Europeans who have never missed a meal, have decided it would be better to let their citizens starve than to import genetically modified grains that could feed them.
Otra de las razones por las que mucha gente da la espalda a la ciencia es que entra en conflicto con sus creencias. La dimensión ideológica queda patente cuando los adelantos tecnológicos se ven como una «guerra» contra el planeta, un «atentado» contra la naturaleza o como «jugar a ser dioses». En este caso hemos de recordar que cuando los hechos no cuadran con lo que creemos, los hechos se descartan y las creencias se fortalecen (ibídem Specter):

We have all been in denial at some point in our lives; faced with truths too painful to accept, rejection often seems the only way to cope. Under those circumstances, facts, no matter how detailed or irrefutable, rarely make a difference. Denialism is denial writ large—when an entire segment of society, often struggling with the trauma of change, turns away from reality in favor of a more comfortable lie.[...] Unless data fits neatly into an already formed theory, a denialist doesn’t really see it as data at all. That enables him to dismiss even the most compelling evidence as just another point of view. Instead, denialists invoke logical fallacies to buttress unshakable beliefs, which is why, for example, crops created through the use of biotechnology are “frankenfoods” and therefore unlike anything in nature. “Frankenfoods” is an evocative term, and so is “genetically modified food,” but the distinctions they seek to draw are meaningless. All the food we eat, every grain of rice and ear of corn, has been manipulated by man; there is no such thing as food that hasn’t been genetically modified.
Otra causa que a mí se me ocurre como causa de repudio es que nuestro cerebro está sediento de certeza. Como vimos, la ciencia no es una bola mágica número ocho a la que se pueda hacer una pregunta y obtener una respuesta simple y sin ambigüedades. El principal beneficio del método científico es una reducción paulatina de la incertidumbre, pero eso implica que buena parte del conocimiento es solo provisional. A consecuencia de ello, toda respuesta científica honesta siempre vendrá acompañada de advertencias, probabilidades y márgenes de error, nada de lo cual digerimos fácilmente.

A todo lo anterior hay que sumarle el hecho de que la mayoría de personas confía más en historias que en estadísticas, y que recurrimos antes a nuestras experiencias personales y a anécdotas que al conocimiento científico. Por ejemplo, no les costará encontrar un fumador que les recuerde que Santiago Carrillo vivió noventa y siete años a pesar de ser un fumador empedernido. Es posible que dicho fumador también les recuerde, de paso, que «todo da cáncer», una muestra más de lo mal que nos llevamos con la estadística y de cómo preferimos dar la espalda a los hechos que nos fastidian. Añadan a la mezcla que llevamos hasta este punto los fraudes y las malas prácticas científicas que mencionamos en su día, así como los intereses económicos, y tendrán un abono perfecto para hacer crecer el desprecio a la ciencia.

Háganse cargo de la situación. De un lado, tenemos a una sociedad que demanda respuestas claras y sencillas, verdades absolutas, afirmaciones indiscutibles y soluciones exentas de riesgo. Por otro lado, tenemos un método científico lleno de sombras, tanto teóricas como prácticas, un sistema económico que no recompensa la búsqueda de la verdad, y un cerebro demasiado vago o incompetente para lidiar con el caos, la aleatoriedad y la incertidumbre. Así, mientras que los probos científicos no pueden ser tajantes y se las ven y se las desean para hacer llegar sus precauciones al público, las autoridades religiosas o los expertos pueden afirmar de forma rotunda cualquier cosa. Liberados del corsé del método científico, estos últimos alivian con su dogma la carga que suponen la complejidad y la incertidumbre del mundo.

Desgraciadamente, incluso aunque la ciencia fuera infalible, practicada y traída a nosotros de manos de alguna inteligencia extraterrestre, la verdad seguiría sin triunfar. Siempre habrá personas que no aceptarán aquellos hechos que contradigan su visión del mundo.

Ante esta situación, quienes tratan de implantar mejores políticas de salud pública están abandonando la premisa de que los hechos hablan por sí mismos en favor de cambios en la presentación narrativa:

As Nieman and countless other researchers have learned, new evidence often meets with dismay or even outrage when it shifts recommendations away from popular practices or debunks widely held beliefs. For evidence-based medicine to succeed, its practitioners must learn to present evidence in a way that resonates. Or, to borrow a phrase from politics, it's not the evidence, stupid — it's the narrative.
Política y ciencia no son tan diferentes como parece o como sería deseable. En ambos casos necesitamos la retórica y la persuasión para cambiar el punto de vista de otra persona. Sea por la naturaleza de los mismos o por cómo los procesamos, lo cierto es que la exposición cruda de los hechos no tiene el poder de convicción que damos por sentado. Me temo que eso significa que cierta subjetividad es inevitable en todos los asuntos humanos, lo cual es un inconveniente cuando queremos ponernos todos de acuerdo.

lunes, 31 de agosto de 2015

Hechos

El conocimiento científico avanza poco a poco. Progresa, como dice Ben Goldacre, «a través de temas y teorías que emergen gradualmente, respaldadas por un cúmulo de pruebas provenientes de una serie de disciplinas y que operan a diversos niveles explicativos». De ese cúmulo de pruebas surge una de las mayores virtudes de la ciencia: la capacidad de corregirse a sí misma. A la larga, los falsos hallazgos que se publican quedan enterrados bajo aquellos que prueban algo distinto y la verdad sale a la luz. Esa es, al menos, la teoría. En la práctica, este sistema presenta multitud de problemas que afectan a cómo es percibida la ciencia por la sociedad.

Para empezar, los hallazgos erróneos son persistentes, no solo entre el común de la población sino también entre los propios científicos. Un resultado equivocado puede seguir tomándose como verdadero durante mucho, mucho tiempo. Teniendo en cuenta que el número de estudios que acaban retractándose crece cada año, esto supone un problema importante:

Even when research errors are outed, the original claims often manage to persist for years and even decades. A study by the computer scientist Murat Çokol and his colleagues at Columbia University found that a good deal less than one-hundredth of 1 percent of all journal articles published between 1950 and 2004 were formally acknowledged as seriously flawed, a percentage that Çokol’s computer model suggested should be as much as 200 times larger. Ioannidis, too, found evidence of the persistence of bad findings. Helooked at studies reporting the cardiovascular benefits of vitamin E, anticancer benefits of beta-carotene, and anti-Alzheimer’s benefits of estrogen—important studies that were published in 1993, 1981, and 1996, respectively, and that were each convincingly and prominently refuted in one or more larger studies around 1999, 1994, and 2004, respectively. In 2005, the most recent year Ioannidis checked, half of the researchers who cited the original study of vitamin E did so in the context of accepting the original results, and through 2006 a little more than 60 percent cited the original beta-carotene and estrogen studies, though the results had been solidly refuted—thirteen years earlier in the case of beta-carotene.
En segundo lugar, la necesidad de acumular datos para afianzar los hechos puede dar la sensación de que todo conocimiento es provisional y discutible. Las recomendaciones dietéticas para perder peso han pasado con el tiempo del «coma menos pan» (¡el problema son los carbohidratos!) al «coma menos grasa» (¡el problema son las grasas!) al –de nuevo– «coma menos pan» (¡el problema es el azúcar refinado!). Ciclos semejantes han tenido lugar respecto a cómo afectan a nuestra salud la carne, los plásticos o los edulcorantes. A consecuencia de esto las verdades científicas se consideran modas pasajeras (hoy el café es sano, mañana no) y, por tanto, desechables. No obstante, esta es una apreciación equivocada, el menos en parte. Por ejemplo, la explicación de Arquímedes sobre por qué las cosas flotan es correcta desde hace más de dos mil años. El libro de Arbesman muestra cómo no todos los hechos cambian al mismo ritmo y que algunos, a efectos prácticos, nunca lo hacen.

Fuente: Free the facts!, por Dave Gray

Finalmente, tenemos el problema de los medios de comunicación. Estos nos hablan únicamente de aquellos experimentos o estudios que constituyen noticia. Desgraciadamente, por el teorema de Bayes sabemos que los motivos por los que un estudio es digno de un titular (ser relevante, novedoso e inesperado) son los mismos por los que cabe esperar que sea falso. Otro problema de la cobertura informativa es que, dado que los periodistas son incapaces de valorar la evidencia científica en su conjunto, acaban recurriendo a figuras de autoridad. A consecuencia de ello, las verdades científicas se caracterizan como conocimiento revelado, situándolas así al mismo nivel que el dogma:

¿Cómo sortean los medios el problema de su incapacidad para proporcionarnos la evidencia científica propiamente dicha? A menudo, lo hacen recurriendo a figuras de autoridad (un recurso que constituye la antítesis misma de la esencia de la ciencia) y tratándolas como si de curas, políticos o figuras paternas se tratara. «Un grupo de científicos ha dicho hoy que…» «Unos científicos han revelado que…» «Los científicos han advertido que…»
Eso hace que no se traten correctamente los casos de disentimiento. El periodista o el programa de televisión de turno presenta a un científico asegurando una cosa y a otro que lo cuestiona (a veces ni siquiera son científicos del mismo ramo o no son expertos en el asunto tratado). Como para los medios de comunicación todos los científicos valen lo mismo y todas su afirmaciones son igual de válidas, la verdad pasa a ser una cuestión de retórica:

[C]uando existe algún tipo de controversia en torno a lo que nos muestran las evidencias, el recurso a las figuras de autoridad reduce el debate a una mera bronca o intercambio de improperios, ya que una afirmación como «la vacuna triple vírica provoca autismo» (o no) sólo puede ser criticada en función del carácter de la persona que la formula, y no en función de las pruebas que dicha persona puede presentar.
Cuando esto ocurre, cuando el conocimiento que aceptamos depende de las dotes del orador, es cuando se abre la puerta a las seuodociencias, aquellos conjuntos de creencias promovidos por figuras de autoridad cuestionables, gente que sostiene estrafalarias teorías sin tener pruebas o basándose en evidencias débiles, y cuyas afirmaciones contravienen hechos bien establecidos.

Al pensar en la palabra «hechos» nos referimos intuitivamente a verdades objetivas, independientes del observador y que pueden ser comprobadas por cualquiera. Al ser externas a nosotros, no concebimos dichas verdades como fruto de un consenso o como el resultado de una votación. John Oliver lo explica así en relación a una encuesta de Gallup que muestra que uno de cada cuatro estadounidenses es escéptico respecto al cambio climático:

Who gives a shit? You don’t need people’s opinion on a fact. You might as well have a poll asking: ‘Which number is bigger, 15 or 5?’ or ‘Do owls exist?’ or ‘Are there hats?’
Por desgracia, la incertidumbre inherente a la ciencia hace que no sea fácil determinar lo que es un hecho y lo que no. Todo depende de en qué punto de la investigación nos encontremos: al principio la incertidumbre será grande y probablemente nos veremos en la situación de tener que revisar los hechos conforme vayamos obteniendo nuevas pruebas. En su día ya vimos que no podemos confiar en el resultado de un solo estudio científico. En aquella entrada y en la de la semana pasada señalamos unas cuantas razones para ello. La conclusión es que el método científico nos obliga a llevar a cabo muchos experimentos, a recoger muchos datos y a considerar la bibliografía completa antes de sacar conclusiones o tomar decisiones.

Claro que ¿quién tiene tiempo, ganas y formación suficiente para hacer eso? Si recurrimos a figuras de autoridad es porque asumimos que tienen las tres. Eso no supondría un problema si valoráramos a cada autoridad según la calidad de la ciencia que maneja, lo cual no es muy factible si uno no es, a su vez, un científico. De modo que cada cual, de nuevo, actúa según le parece. Algunos se fían del consenso científico. Otros solo hacen caso a las voces discordantes, bien porque crean que son los únicos que tienen valor a decir la verdad o porque lo que dicen encaja con su visión del mundo. Por último, están quienes no se fían de nadie. En definitiva, cada cual elige sus propios hechos.

lunes, 24 de agosto de 2015

Mala ciencia

Consultores, entrenadores, economistas, gurús de las relaciones personales o de la vida en general, consejeros de celebridades, asesores financieros, directores generales, comentaristas deportivos, tertulianos... como ya hablamos, abundan los expertos. Pueblan el espectro electromagnético y nos hacen llegar sus consejos (normalmente equivocados) a través de la televisión, la radio o internet. A la hora de defender sus argumentos suelen apelar a su experiencia personal, al éxito de su carrera o a un puñado de historias de gente que siguió sus consejos y logró un final feliz. Si se les interroga sobre sus fuentes de conocimiento, la respuesta varía según el asunto tratado. Un experto en felicidad puede recurrir a antiguos textos budistas. Un experto en finanzas puede invocar el nombre de grandes autoridades en la materia (algún premio Nobel, por ejemplo). Pero la mayor parte de ellos, en algún momento u otro, echan mano de la ciencia, ya sea en forma de estudios científicos o en palabras de algún académico o investigador. Y es que no hay nada como una pátina de ciencia para defender la solidez de nuestros argumentos:

La ciencia goza de una alta valoración. Aparentemente existe la creencia generalizada de que hay algo especial en la ciencia y en los métodos que utiliza. Cuando a alguna afirmación, razonamiento o investigación se le da el calificativo de «científico», se pretende dar a entender que tiene algún tipo de mérito o una clase especialidad de fiabilidad.
[...] Los anuncios publicitarios afirman con frecuencia que se ha mostrado científicamente que determinado producto es más blanco, más potente, más atractivo sexualmente o de alguna manera preferible a los productos rivales. Con esto esperan dar a entender que su afirmación está especialmente fundamentada e incluso puede que más allá de toda discusión.
Foto de Sergei Golyshev
Según la concepción popular, la ciencia se basa en hechos, afirmaciones sobre el mundo que pueden comprobarse directamente, verdades objetivas que todos hemos de aceptar. Además de eso, lo que hace especial a la ciencia es su método, el «método científico». Lo recordarán del colegio. A grandes rasgos, se empieza con una pregunta («¿por qué el cielo es azul?»), se formula una hipótesis, se desarrollan las consecuencias lógicas de la misma, se lleva a cabo un experimento para ponerla a prueba y se analizan los resultados. Si las pruebas obtenidas en el experimento contradicen la hipótesis es necesario desecharla y desarrollar una nueva. Si la confirman, se comprueban otras predicciones de dicha hipótesis. Una vez la hipótesis cuenta con suficientes pruebas a favor pasa a desarrollarse una teoría.

La calidad de la ciencia reside en los detalles, allí donde, según el dicho, habita el diablo. En cada paso del método científico se puede cometer un traspié y el libro de David H. Freedman titulado Wrong: Why Experts Keep Failing Us - and How to Know When Not to Trust Them contiene una buena lista de todo lo que puede salir mal. Para empezar, pueden cometerse errores en algo tan sencillo como recopilar los datos (al tomar la presión arterial de los sujetos de estudio o al medir la temperatura del océano o al calcular la contaminación del aire). A veces dichos errores nos obligan a tener que descartar observaciones, lo que introduce el problema de qué datos se descartan con razón y cuáles se desechan por un sesgo inconsciente. Terminada la toma de datos, a la hora de analizar los resultados los errores estadísticos son frecuentes.

No es fácil diseñar experimentos para probar ciertas hipótesis, por lo que los científicos a veces sustituyen una pregunta por otra más fácil de responder y acaban midiendo cosas que no importan. Por ejemplo, ante la pregunta «¿este medicamento cura el cáncer?» un estudio puede estar diseñado para determinar si dicho medicamento reduce el tamaño del tumor, ya que medir eso es mucho más sencillo que observar a una población durante años para determinar si los que tomaron el medicamento vivieron más. Por desgracia, el tamaño del tumor puede que no esté relacionado con la mortalidad del cáncer. Este uso de indicadores secundarios es bastante habitual y tiene su máxima expresión en los experimentos con animales. Siempre que se trate de un estudio con otra especie hay que esperar a los resultados con humanos ya que, por mucho que se nos parezcan, nada nos asegura que el resultado sea extrapolable.

Otro error bastante común es que los datos soporten la hipótesis pero que dicha hipótesis sea falsa en realidad y el efecto observado se deba a un tercer factor no contemplado. Por ejemplo, un estudio puede concluir que la gente que duerme menos de seis horas diarias tiene mayor probabilidad de ser obesa. Sin embargo, quizá la razón de que haya correlación entre ambas variables sea que la gente sana se preocupa tanto de hacer ejercicio como de comer y de dormir bien. Si esa fuera la explicación, no es de esperar que uno vaya a adelgazar a base de dormir más cada noche. Todos los tipos de estudio (observacional, epidemiológico, meta-análsis, doble ciego) están afectados por este problema en mayor o menor medida.

Algunos fallos no son tan inocentes y están relacionados con los incentivos a los que se enfrentan los investigadores. Como explica Gerry Carter en su artículo, los objetivos de la ciencia como tal y de quienes la practican no son los mismos. El éxito científico no equivale a éxito académico. Hacer ciencia de calidad (falsificable, repetible y correcta) no lleva automáticamente a ser influyente, reconocido y ascendido. A los científicos se les premia laboralmente por obtener resultados novedosos, revolucionarios y sorprendentes. Estos requisitos, unidos a la enorme competencia, reducen la calidad de la ciencia practicada. Al final, lo que es importante para un científico no es tanto la verdad como el demostrar que algo es cierto, pues eso es lo que necesita para conseguir una plaza en una universidad o dinero para investigación:

Most of us don’t think of scientists and other academic researchers as cheaters. I certainly don’t. What could motivate such surprisingly nontrivial apparent levels of dishonesty? The answer turns out to be pretty simple: researchers need to publish impressive findings to keep their careers alive, and some seem unable to come up with those findings via honest work. Bear in mind that researchers who don’t publish well-regarded work typically don’t get tenure and are forced out of their institutions. It’s an oppressive system and one that’s becoming more so.
Ante las presiones por obtener un resultado positivo, si un estudio no confirma una hipótesis es muy probable que acabe sin ver la luz del día, dado que no contribuye al avance de la carrera del científico. Esto perjudica a la ciencia porque el desarrollo de una teoría depende del conjunto de todos los datos, no solo de los favorables. Por otra parte, abundan quienes torturan los números hasta que les dicen lo que quieren, esto es, hasta que encuentran algo que apoye lo que querían demostrar. En otras ocasiones, un científico puede diseñar un experimento para poner a prueba su hipótesis («¿son más inteligentes las personas guapas?»), encontrarse con otro efecto diferente («no son más inteligentes pero sí más adineradas») y publicar el estudio como si su propósito inicial fuera probar esta última hipótesis (es lo que se conoce como mover los palos de la portería). A veces es una empresa privada la que financia la investigación, como cuando un fabricante de cerveza promueve un estudio que concluye que la cerveza no engorda. Proliferan las pruebas que indican que esta clase de experimentos motivados siempre encuentran lo que estaban buscando.

Por último, no hay que olvidar el fraude puro y llano. En ocasiones se crean datos de la nada o se ocultan algunos de ellos. Asimismo se publican estudios falsos o que nunca tuvieron lugar. Incluso ha habido casos de corrupción en el sistema de revisión por pares. Quienes detectan conductas reprobables no tienen incentivos para denunciarlo debido a que podrían perder su puesto de trabajo o su financiación. Además, uno debe llevarse bien con sus colegas si quiere ver su trabajo publicado.

La ciencia no es un proceso llevado a cabo en el vacío. Es obra de personas de carne y hueso sometidas a los mismos sesgos y limitaciones que el resto de nosotros. A los errores normales de un ser humano hay que sumarle el hecho de que los investigadores están sometidos a mucha competencia lo que, como ocurre en otras profesiones, puede derivar en malas conductas con tal de destacar o, simplemente, mantenerse a flote.

La gente digiere estos hechos de distinta manera. Algunos reniegan totalmente de la ciencia y suscriben (normalmente sin conocerlas) las tesis del filósofo Paul Feyerabend, quien sostenía que la ciencia no posee rasgos especiales que la hagan superior a otras ramas del conocimiento. Él veía la ciencia como la religión moderna y pensaba que desempeña la misma función que ha desempeñado el cristianismo en Europa durante los siglos pasados. Para estas personas, escépticos radicales y posmodernistas, todo es dogma y cada uno abraza el que le parece. Otros buscan en las seudociencias respuestas que la ciencia no tiene (o que sí tiene, pero no concuerdan con su visión del mundo). Finalmente, están quienes reconocen que la ciencia es una tarea ardua y, por ello, siempre tienen presente que no todos los estudios y artículos científicos valen lo mismo, que no todos los científicos son iguales, que la cantidad y calidad de pruebas a favor o en contra de una hipótesis es importante, que parte del conocimiento tiene fecha de caducidad y que la ciencia, en general, es un proceso paulatino de reducción de la incertidumbre y el desconocimiento.

lunes, 18 de mayo de 2015

La Roca (y II)

Política y economía son dos arenas especialmente propicias para ser defendidas por nuestro sistema de creencias. Incluso aunque se analicen todos los datos disponibles siempre cabe modificar ligeramente la pregunta o las definiciones de partida, entrar en detalles o matizar los fines para dar cabida a refutaciones, terreno fértil para los defensores de la construcción social del conocimiento. Además, es imposible separar de ambas la parte moral y resolverlas como problemas técnicos (los intentos de la era de los cincuenta de resolver la economía a base de ecuaciones y teoremas se antojan similares a aquellos que tuvieron lugar en los siglos XVIII y XIX destinados a resolver «la política»). En mi humilde opinión, es imposible proclamar que uno posee la certeza absoluta económica o política porque dispone de eso que llaman «la evidencia». Aceptemos pues –aunque sea a regañadientes– que en estas cuestiones las personas siempre defenderemos nuestras creencias frente a los hechos y sigamos adelante, preguntándonos ahora: ¿cómo de buenos (o malos) bayesianos somos en áreas más asépticas, allí donde la identidad social y la imagen propia no son cuestionadas?

Quizá recuerden algunos casos que ya mencionamos en historia de la ciencia en los que científicos de renombre dieron la espalda a los hechos: el físico Fred Hoyle rechazando la teoría del Big Bang y Ronald Fisher rebatiendo la correlación entre el tabaco y el cáncer. Claro que Hoyle y Fisher eran gigantes en sus respectivos campos de conocimiento y, como tales, podían usar su inteligencia y conocimientos para sembrar la duda razonable. Caso muy distinto es el de Enriqueta y Teleforo, padres primerizos que deciden no vacunar a su prole porque creen que las vacunas producen autismo.

Mucho se ha escrito este año sobre las vacunas, especialmente en medios anglosajones, ya que en Estados Unidos y el Reino Unido el número de progenitores que se niegan a inmunizar a sus hijos parece haber crecido bastante. Como seguramente ya sabrán, el movimiento antivacunas nació en 1998 cuando el médico británico Andrew Wakefield publicó en The Lancet los resultados de un estudio según el cual la administración de la vacuna triple vírica provocaba autismo. Todas las investigaciones posteriores han refutado tal asociación y Wakefield fue despojado de su licencia médica acusado de fraude, a pesar de lo cual poco más de la mitad de los estadounidenses consideran las vacunas seguras. ¿El resultado? Seiscientos cuarenta y cuatro casos nuevos de sarampión en Estados Unidos el año pasado, el triple que el año con más casos que le sigue en la serie.

Una cosa está clara de los antivacunas: si supieran quién fue Thomas Bayes y dónde está enterrado, viajarían hasta allí para mear sobre su tumba. Recuerden que, según este teorema, cuando uno conoce nuevos datos debe ajustar su creencia en la hipótesis en una cantidad que se puede calcular matemáticamente. Pues bien, ¿qué ocurre cuando a los antivacunas se les presentan pruebas de la seguridad y los beneficios de la inmunización? Que disminuye aún más su intención de vacunar a sus hijos:

The researchers showed participants information from the Center for Disease Control (CDC), which was designed to debunk the myth that the flu vaccine can give you flu. This resulted in a fall in people's false beliefs but, among those concerned with vaccine side-effects, it also resulted in a paradoxical decline in their intentions to actually get vaccinated, from 46 per cent to 28 per cent. The intervention had no effect on intentions to get vaccinated amongst people who didn't have high levels of concerns about vaccine side effects in the first place.
[...] This is not the first time that vaccine safety information has been found to backfire. Last year the same team of researchers conducted a randomised controlled trial comparing messages from the CDC aiming to promote the measles, mumps and rubella (MMR) vaccine. The researchers found that debunking myths about MMR and autism had a similarly counterproductive result - reducing some false beliefs but also ironically reducing intentions to vaccinate.
Por lo visto, enfrentar a una persona con los datos puede hacer que el tiro nos salga por la culata. Lo paradójico es que la probabilidad de vacunación descendió aun cuando los sujetos sí corrigieron parcialmente sus falsas creencias sobre las vacunas.

Al parecer, el teorema de Bayes solo puede funcionar en ordenadores, no en cerebros humanos. Las personas aplicamos el razonamiento motivado en todas las esferas de la vida; allí donde nos lleven la contraria activaremos nuestras defensas. Brendan Nyhan es un profesor de Darmouth especializado en el estudio de las percepciones erróneas en política y sanidad. Es también coautor del estudio citado anteriormente. Según él, no hay ninguna diferencia en la forma en que las personas razonamos acerca de las vacunas, los edulcorantes, la política, el gazpacho o cualquier otra controversia:

People feel passionately, they are not inclined to hear contradictory messages, and there are all sorts of myths circulating. The way people reason about vaccines, it's the same as the way people reason about other controversial topics.
La manera en que razonamos sobre asuntos polémicos es fácil de describir: cuando los datos nos dan la razón, invocamos la evidencia; cuando contradicen nuestra postura, en lugar de rectificar les damos la espalda y salimos corriendo:

[R]esearch suggests that the mere prospect of a factual threat leads us to downplay how much our belief depends on such evidence at all. We become attracted to other, less falsifiable reasons for believing.
[...] When the facts were on their side, they rated the issues [...] as a matter for evidence to decide; when the facts were against them, they saw it as more a matter of opinion.
Es decir, intentamos escapar del territorio de los hechos para adentrarnos en el de las creencias y las opiniones, allí donde no hay fundamentaciones últimas y, por tanto, es mucho más fácil hacerse fuerte frente al contrario, evitando de ese modo llegar a conclusiones no deseadas (el énfasis es mío):

Of course, sometimes people just dispute the validity of specific facts. But we find that people sometimes go one step further and [...] they reframe an issue in untestable ways. This makes potential important facts and science ultimately irrelevant to the issue.
[...] [W]hen people’s beliefs are threatened, they often take flight to a land where facts do not matter. In scientific terms, their beliefs become less “falsifiable” because they can no longer be tested scientifically for verification or refutation.
Valve, la empresa de desarrollo de videojuegos, pone a disposición de sus nuevos empleados una guía en la que se explica, entre otras cosas, cómo está organizada la empresa y qué se espera de los trabajadores. Bajo el epígrafe What if I screw up? hablan de los errores y sus consecuencias, de la forma correcta y la incorrecta de equivocarse, y de cómo actuar en caso de meter la pata. Termina esta sección con una frase que se me ha quedado grabada y por la que todos –no solo los empleados de Valve– deberíamos regirnos:

Never ignore the evidence; particularly when it says you’re wrong.
Pero, como ya saben, no vivimos en deberialandia, y esconder los hechos incómodos es una tentación demasiado grande. Hete aquí una imagen que apareció en Reddit en relación con cierta polémica en torno al juego The Elder Scrolls V: Skyrim desarrollado por la casa (clic para ampliar):


Al parecer, algún empleado no se leyó esa parte de la guía y decidió que lo mejor era eliminar de la imagen la calificación tan negativa que los jugadores habían otorgado en su descontento por las decisiones de la empresa. Oh, the irony!

lunes, 11 de mayo de 2015

La Roca (I)

When my information changes, I alter my conclusions. What do you do, sir?
–John Maynard Keynes


Como ejemplo de ese debate político de apariencia racional pero con fondo emotivista en el que todos nos hayamos envueltos, en el verano de 2014 se publicó un manifiesto titulado Última llamada que sostenía que nos hallamos inmersos en una crisis de civilización. Dicho manifiesto fue criticado por gente de Politikon en estos términos (el énfasis es mío):

[C]onstruye una madeja de declaraciones altisonantes y maximalistas que ni se apoyan en argumentos racionales ni se soportan en datos; o, lo que es peor, con frecuencia van contra la evidencia de que disponemos.
La queja aquí es un clásico desde la Ilustración. Se supone que ya no vivimos en un tiempo dominado por grandes teorías desarrolladas por autoridades como Aristóteles cuya veracidad se asume cual dogma de fe, sino que disponemos de la ciencia para alcanzar la verdad. Ya no es necesario elucubrar; tenemos datos y pruebas que nos dicen lo que hay y lo que es, y obviar o contradecir dichas pruebas es propio de gente irracional, ignorantes o arteros prosélitos tratando de imponer su agenda ideológica.

Tiempo después David Ruiz publicó un artículo en el que mostraba otros datos que contradecían la evidencia aportada por la gente de Politikon. Les recomiendo el artículo de Ruiz porque demuestra lo fácil que es encontrar para cada «prueba» su contraria, y cómo esto de recabar evidencias se parece mucho a ir a recoger frutos silvestres, donde uno elige los que le parecen más apetitosos y deja el resto ocultos en la mata. Es un fenómeno especialmente notable en eso de la economía, donde –sin importar la ideología del economista de turno– se topa uno con largas listas de estudios que «prueban» las tesis del autor y echan por tierra las del contrario. Los psicólogos tienen un término propio para eso que los ingleses llaman cherry picking:

Psychologists now have file cabinets full of findings on “motivated reasoning,” showing the many tricks people use to reach the conclusions they want to reach. When subjects are told that an intelligence test gave them a low score, they choose to read articles criticizing (rather than supporting) the validity of IQ tests. When people read a (fictitious) scientific study that reports a link between caffeine consumption and breast cancer, women who are heavy coffee drinkers find more flaws in the study than do men and less caffeinated women. Pete Ditto, at the University of California at Irvine, asked subjects to lick a strip of paper to determine whether they have a serious enzyme deficiency. He found that people wait longer for the paper to change color (which it never does) when a color change is desirable than when it indicates a deficiency, and those who get the undesirable prognosis find more reasons why the test might not be accurate (for example, “My mouth was unusually dry today”).

Foto de Dave Sutherland

Solemos pensar que si alguien sostiene una tesis y le enseñamos pruebas en contra entonces esa persona debería cambiar de parecer. Asumimos también que cuantas más pruebas aportemos más razones tiene para abandonar su posición, y que no hacerlo es irracional. Es decir, damos por sentado que las personas seguimos un proceso de aprendizaje bayesiano. En la década de los cincuenta, Ward Edwards concluyó que los humanos somos «aproximadamente bayesianos». Los modelos formales asumen que ajustar nuestras creencias es algo que tiene lugar sin problemas. ¿Cómo de buenos (o malos) bayesianos somos realmente? ¿En qué grado ajustamos nuestras creencias según las pruebas?

Voy a ahorrarles el suspense: los humanos nos resistimos a actualizar nuestras creencias, sobre todo cuando las pruebas que evaluamos contradicen lo que pensamos. Décadas de investigaciones posteriores a Edwards de la mano de Kahneman y Tversky nos han mostrado que, de hecho, las personas no pensamos de forma bayesiana. Como explica Philip Tetlock:

Decades of laboratory research on “cognitive conservatism” warn us that even highly educated people tend to be balky belief updaters who admit mistakes grudgingly and defend their prior positions tenaciously.
Y en la nota al pie continúa:

Some researchers have concluded that people are such bad Bayesians that they are not Bayesians at all (Fischhoff and Beyth-Marom, “Hypothesis Evaluation from a Bayesian Perspective”). Early work on cognitive conservatism showed that people clung too long to the only information they initially had—information that typically took the form of base rates of variously colored poker chips that defined judges’ “priors.”
Tetlock cuantificó este «déficit bayesiano» en su célebre estudio sobre los expertos. Cuando erraban en su respuesta, los sujetos de estudio ajustaban sus creencias a la luz de nuevas pruebas en un grado bastante inferior al que prescribe la regla de Bayes, entre un diecinueve y un cincuenta y nueve por ciento de lo que deberían. Por contra, allí donde habían acertado el ajuste de creencia se situaba entre el sesenta y el ochenta por ciento del que debería ser.

El experimento de Tetlock consistió en pedir a doscientos ochenta y cuatro expertos que hicieran predicciones sobre una variedad de escenarios políticos: la URSS, la Unión Europea, la primera Guerra del Golfo, Yugoslavia, Sudáfrica y muchos otros. Años después evaluó el nivel de acierto de las predicciones. En conjunto, los expertos no lo hicieron mejor que un grupo de chimpancés lanzando dardos a una diana.

Es interesante ver cómo se defendieron estos expertos cuando tuvieron que confrontar sus fallos. Puede que las personas seamos idiotas, pero no queremos aparentarlo. Por fortuna, contamos con una poderosa máquina generadora de justificaciones a la que podemos recurrir para lavar nuestra imagen y seguir en nuestros trece. Todos tenemos a nuestra disposición un elaborado sistema de defensas para nuestras creencias, y ya vimos que las personas inteligentes están acostumbradas a usar su intelecto para proteger creencias poco inteligentes. En el caso de los expertos, algunas de estas justificaciones fueron el «casi acierto» («lo que predije no pasó, pero casi ocurre»), el «acabará pasando» («lo que yo predije acabará teniendo lugar, solo hay que esperar»), el «ocurrió algo inesperado» («de no haber sucedido aquel hecho improbable yo habría acertado») y el siempre útil «es complicado» («es imposible predecir el futuro»). En ausencia de contrafactuales, algunas de estas defensas ahondan en oscuras cuestiones epistemológicas y tienen cierta solidez filosófica, por lo que no son fácilmente descartables como simples excusas.

Continuará