lunes, 22 de julio de 2019

¿Experto o cuñado? (y V)

En cierta ocasión mi tiroides se descontroló y comenzó a producir demasiada tiroxina. Cuando el médico que me atendía por aquel entonces empezó a escribir la receta dudó un momento y sacó un libro de un cajón de su escritorio. Me dijo que quería asegurarse de que el medicamento que me iba a recetar no tenía interacciones con otros que tomaba. Lo comprobó, terminó la receta, me lo tomé y todo solucionado.

Era un médico joven y tal vez otro paciente hubiera interpretado esa necesidad de consultar el libro de referencia como un signo de incompetencia. Creo que David Freedman tiene algo de razón cuando dice que preferimos a los galenos que muestran más confianza en sí mismos:

Imagine you’ve developed chronic back pain, and you decide to get opinions from two orthopedic specialists. The first one examines you, looks at some MRI images, and tells you the following: “I’ve seen many, many cases just like yours, and it’s usually very hard to say exactly what’s wrong. Different treatments work to varying degrees for different people with this sort of problem, it’s very hard to predict which will work for any person, and most of the time none of the treatments is all that successful. I really can’t predict what, if anything, is likely to work for you. I suggest we try treatment A, which usually doesn’t work but which at least tends to work slightly more often on patients like you than do any of the other treatments. Come back in a month, and if it’s working we’ll continue it, and if it isn’t we’ll try something else.” The second doctor examines you, looks at some MRI images, and tells you the following: “I’ve seen many, many cases just like yours, and I can tell exactly what’s wrong with your back. Most patients with this problem respond very well to treatment B, and I’m pretty sure you will, too. Come in once a month for the treatment, and that should do the trick.”

Which doctor do you go with? When I ask people this question, almost all of them say they’d go with the second doctor. At which point I ask them another question: if you were told one of these doctors had recently been named Wisest Orthopedist of the Year by the state orthopedic society while the other was known to his colleagues behind his back as Bozo the Orthopedist, which would you guess is which? Almost everyone guesses without hesitation that the second doctor is the one who gets no respect. But why would we prefer the advice of someone whose wisdom we’re so quick to question? Apparently we like the second doctor’s advice so much that we’re willing to take a chance on it, in spite of whatever qualms we might have about its reliability.
En mi trabajo todos buscamos soluciones en Google cada día. Dependemos tanto de él que uno se pregunta cómo era trabajar antes de tener dicha herramienta, a la vez que se plantea si en realidad sabe algo, un sentimiento que he visto expresar con este simpático emoticono:

|----------------------------|
| Most days, I've   |
| no idea what      |
| I'm doin. google |
| quote searches   |
| have saved my   |
| ass more'n I can|
| count                  |
|----------------------------|
 (\__/)||
(•ㅅ•)||
/   づ

Lo hablaba con un compañero hace más de una década. Son tantas las ocasiones en las que para hacer mi trabajo sigo los pasos que ha escrito un internauta desconocido que acabo sintiéndome el hombre en la habitación china. Mi colega sostenía que el hecho de buscar no implica ignorancia supina. Al fin y al cabo, se necesitan conocimientos de base para saber lo que se está leyendo, así como cuándo y en qué situaciones aplicar lo aprendido. También puede ocurrir al revés, es decir, que una persona puede memorizar montones de datos y hechos y seguir siendo estúpida:

Accessing the Internet can actually make people dumber than if they had never engaged a subject at all. The very act of searching for information makes people think they’ve learned something, when in fact they’re more likely to be immersed in yet more data they do not understand. This happens because after enough time surfing, people no longer can distinguish between things that may have flashed before their eyes and things they actually know.

En otra ocasión dos compañeros discutían sobre un curso que uno de ellos había hecho. Él primero sostenía que había aprendido mucho mientras el otro le replicaba que no le habían enseñado nada porque sí, le habían mostrado cómo usar ciertas herramientas, pero no le habían explicado cómo funcionaban estas. Dicho de otro modo, le habían enseñado a conducir pero no cómo funcionaba el motor. Un antiguo colega bromeaba con esto diciendo: «lo que hacemos (programar) es ofimática. Somos iguales que la gente que usa el Word: escribimos para obtener lo que queremos sin saber cómo funciona por debajo.».

¿Hasta qué punto es equiparable la competencia con la capacidad de memorización de datos? ¿Hasta qué nivel es necesario saber cómo funciona algo para considerar que sabemos? Vimos hace unos años que tendemos a confundir familiaridad con conocimiento y que este suele ser mucho más superficial de lo que creemos. Aún así, cabe argumentar que no es necesario ser capaz de conocer los detalles hasta el nivel más bajo. Un médico, por ejemplo, no necesita conocer la dinámica de partículas subatómicas en detalle, le basta con llegar al nivel de las células. Es una falacia muy extendida en mi sector, donde aquellos que mejor se desenvuelven con código cercano a la máquina son considerados más competentes. Creo que eso es un signo de miopía intelectual ya que podemos tener conocimientos a distintos niveles (átomos, células, organismos, ecosistemas; átomos, minerales, rocas, planetas) y los niveles más bajos no son especiales.

Conocer datos y hechos, entender lo que significan, llegar a ellos a través de métodos que tienden a producir datos y hechos ciertos, ser capaz de hacer predicciones acertadas, ser consciente del grado de fiabilidad de lo que se sabe así como de las lagunas en el conocimiento propio... todo esto es lo que distingue al verdadero experto del cuñado. Por contra, repetir como un loro tópicos o lo que se ha leído en un periódico o visto en una web cualquiera sin saber lo que significa es lo que retrata al cuñado.

lunes, 17 de junio de 2019

¿Experto o cuñado? (IV)

Últimamente me he aficionado a los vídeos del canal de Youtube Power Art. Uno de sus aspectos destacables es la fluidez con la que el presentador habla de la historia del modelo que analiza, de sus datos técnicos y del diseño. Bastan unos pocos minutos de vídeo para considerar a este hombre versado en el mundo del motor, máxime si lo comparamos con el resto de canales dedicados a mostrar coches nuevos, los cuales se limitan a describir las partes visibles del vehículo y contar sus impresiones a base de tópicos.

Imagen de Wikimedia Commons
Pero ¿realmente estamos ante un experto? Quizá se limite a leer un guión. Tal vez nos esté confundiendo su buena actuación ante la cámara. Los actores de la serie de televisión Urgencias o House no sabían nada sobre medicina pero resultaban convincentes. También lo es uno de mis mejores amigos, el cual trabaja como monitor de gimnasio y da clases de GAP, spinning, pilates y lo que le pidan. Él no ha recibido formación reglada en ninguna de esas disciplinas pero no le falta trabajo. Para ello, antes de ir a la entrevista mira unos cuantos vídeos en Youtube, se aprende una clase de memoria y lo enseña en la entrevista. Lleva superando procesos de selección de esta forma más de diez años.

¿Cómo podemos reconocer a un verdadero experto? ¿Cómo detectar a un impostor o a un ignorante? No creo que haya una sola prueba que pueda separar al experto del resto, más bien tendremos que ir acumulando pruebas que confirmen o desmientan nuestra valoración. Se parece un poco a detectar un billete falso ¿Tiene la marca de agua? ¿Se ve el hilo de seguridad? ¿El holograma muestra los reflejos esperados? Cuantas más «pruebas» supere el billete que tendremos entre manos más seguros podremos estar de nuestro juicio. Pero, a diferencia del billete, con el experto nunca podremos estar seguros totalmente de nuestra evaluación; como máximo podemos aspirar a cierta probabilidad de que nuestro juicio sea correcto dentro de un margen de error dado.

David H. Freedman nos sugiere estas sencillas normas para saber si las opiniones de un experto tienen altas probabilidades de ser equivocadas (énfasis en el original):

Expert advice with a higher-than-average likelihood of being wrong is often given away by any number of tells. Be extra wary if the advice fits any of these descriptions:

It’s simplistic, universal, and definitive. [...] When advice is of the sort that promises broad benefits and can be described in a sound bite or headline—“Drinking Coffee Extends Life Span!”—chances are good that either it’s coming from an expert who has wandered off track through mismeasurement, bad analysis, or bias, or something has been lost in the translation as the findings made their way through research journals and the mass media. [...]
It’s supported by only a single study, or many small or less careful ones, or animal studies. Any advice based on one study should be regarded as highly tentative, no matter how good the study seems. The more studies, the better, as a rough rule, but even a series of big, rigorous studies can occasionally produce wrong conclusions. [...]
It’s groundbreaking. For one thing, most expert insights that seem novel and surprising are based on a small number of less rigorous studies and often on just one small or animal study. [...]
It’s pushed by people or organizations that stand to benefit from its acceptance. All experts stand to benefit from their research winning a big audience, of course, and that’s well worth remembering, but in some cases the potential conflict of interest is more likely to be corrosive. That’s especially true when the research is coming out of or being directly funded by individual companies or industry groups whose profits may be impacted by the findings. [...]
It’s geared toward preventing a future occurrence of a prominent recent failure or crisis. This is the “locking the barn door” effect: we’re so irked or even traumatized by whatever has just gone wrong that we’re eager to do now whatever we might have done before to have avoided the problem. It’s about as smart a strategy as standing on a twelve in blackjack with the dealer showing a face card, just because you’ve busted twice in a row.
De manera similar, también describe algunas características de los consejos más fiables (ibídem):

It doesn’t trip the other alarms. [...] we ought to give more weight to expert advice that isn’t simplistic; that is supported by many large, careful studies; that is consistent with what we mostly believe to be true; that avoids conflicts of interest; and that isn’t a reaction to a recent crisis.
It’s a negative finding. [...] There isn’t much reason to game a disappointing conclusion, and anyone who publishes one or reports on it probably isn’t overly concerned with compromising truth in order to dazzle readers.
It’s heavy on qualifying statements. [...] sometimes journal articles and media reports do contain comments and information intended to get us to question the reliability of the study methodology, or of the data analysis, or of how broadly the findings apply. Given that we should pretty much always question the reliability and applicability of expert findings, it can only speak to the credibility of the experts, editors, or reporters who explicitly raise these questions, encouraging us to do the same.
It’s candid about refutational evidence. Claims by experts rarely stand unopposed or enjoy the support of all available data. (A saying in academia: for every PhD, there’s an equal and opposite PhD.) Any expert, journal editor, or reporter who takes the trouble to dig up this sort of conflicting information and highlight it when passing on to us a claim ought to get a bit more of our attention.[...]
It provides some context for the research. Expert findings rarely emerge clear out of the blue—there is usually a history of claims and counterclaims, previous studies, arguments pro and con, alternative theories, new studies under way, and so forth. [...]
It provides perspective. [...] more trustworthy pronouncements tend to more clearly spell out the limitations in their relevance—that a treatment has been tried only on animals or on healthy people, for example, or that a shift in real-estate prices has been clearly observed only in higher-end homes or in one part of the country. [...]
It includes candid, blunt comments. [...] I don’t think you can be confident of really understanding the reliability or significance of an expert claim unless you’ve heard the expert herself or other well-informed experts express their doubts and skepticism. The best places to look for such comments, in my experience, are in longer magazine articles, in letters to journals, and occasionally in radio interviews.
De todos los indicios listados mi favorito es la sinceridad acerca de las pruebas que desmienten la hipótesis. A mi juicio, el experto, para ser tal, debe conocer en profundidad los aspectos más débiles de sus teorías, un requisito que demandaba John Stuart Mill:

En vuestros días está de moda despreciar la lógica negativa que es la que descubre los puntos débiles en la teoría o los errores en la práctica, sin establecer verdades positivas. Semejante crítica negativa sería pobre como resultado final; pero como medio de alcanzar un conocimiento positivo o una convicción digna de tal nombre, nunca será valorada demasiado alto; y hasta que los hombres sean de nuevo y sistemáticamente educados para esto, habrá pocos grandes pensadores y el nivel intelectual medio será bajo, excepto en las especulaciones matemáticas y físicas. En todas las demás materias, ninguna opinión merece el nombre de conocimiento, en tanto que, bien forzado por los demás, bien espontáneamente, no ha seguido el mismo proceso mental a que le hubiera obligado una controversia con sus adversarios.

Después de lo que hemos visto en esta serie de artículos podríamos agregar algunos criterios de nuestra propia cosecha. Primero, que el conocimiento de la persona en cuestión sea fruto de un proceso que tiende a producir verdadero conocimiento. Por ejemplo, el presentador de Power Art es ingeniero mecánico mientras que mi amigo, como he dicho, se alimenta de vídeos de YouTube. No creo que sea controvertido decir que, basándonos únicamente en la formación, el primero tiene más probabilidades de ser un experto real que mi amigo.

Segundo, el verdadero experto es capaz de hacer predicciones que son correctas. El tipo de predicciones dependerá de la materia en concreto. En el caso de mi amigo él debería ser capaz de producir en sus clientes los cambios físicos que demandan (perder peso, ganar fuerza) cuando estos hacen todo lo que mi amigo les dice. El presentador de Power Art, por su parte, hace de ingeniero de pista para un equipo de carreras así que el éxito de sus predicciones se verá en el comportamiento del coche durante la competición.

Finalmente, una de las formas más fiables pero menos útiles para calibrar el conocimiento ajeno es tener uno mismo conocimientos sobre el tema. No siempre podemos alcanzar el nivel requerido para distinguir a un genio de un mediocre y, además, debemos tener la cautela de no favorecer a aquellos expertos que comulgan con nuestras ideas, tachando a los contrarios de ignorantes, pero es de suyo evidente que cuanto más conozcamos la materia mejor cualificados estaremos para juzgar.

Continuará.

lunes, 3 de junio de 2019

¿Experto o cuñado? (III)

Alejémonos un poco del concepto filosófico y centrémonos en la definición mundana del saber. Aquí encontramos, por un lado, el conocimiento de tipo Trivial Pursuit que sirve para responder  a preguntas tales como «¿cuántos jueces hay en el Tribunal Supremo?», «¿cuál es el número de Avogadro?», «¿qué países forman parte de la OTAN?» o «¿cuáles son los gases nobles?». Por otro, tenemos el conocimiento que utilizamos en cuestiones del tipo «justifica tu respuesta». El primero es fácil de evaluar. El segundo, que es el que nos interesa, no tanto.

Foto de Jlhopgood
¿Cómo podemos valorar si una persona es realmente experta en una materia? ¿Cómo asegurarnos de que no estamos confundiendo otras cualidades (seguridad en uno mismo, dominio de la jerga) con conocimiento verdadero? ¿Cómo podemos comprobar que no es el homúnculo de la habitación china de la que hablamos al principio?

Philip Tetlock, cuyo trabajo hemos mencionado en varias ocasiones, utilizó como vara de medir la capacidad de hacer predicciones acertadas. Como él mismo reconoce, es una elección discutible porque es posible conocer un fenómeno pero errar la predicción:

Explanation is possible without prediction. A conceptually trivial but practically consequential source of forecasting failure occurs whenever we possess a sound theory but do not know whether the antecedent conditions for applying the theory have been satisfied: high school physics tells me why the radiator will freeze if the temperature falls below 32°F but not how cold it will be tonight. Or, consider cases in which we possess both sound knowledge and good knowledge of antecedents but are stymied because outcomes may be subject to chaotic oscillations. Geophysicists understand how principles of plate tectonics produce earthquakes and can monitor seismological antecedents but still cannot predict earthquakes.
Asimismo, es posible hacer predicciones correctas aun cuando no sepamos explicar el fenómeno (ibídem):

Conversely, prediction is possible without explanation. Ancient astronomers had bizarre ideas about what stars were, but that did not stop them from identifying celestial regularities that navigators used to guide ships for centuries. And contemporary astronomers can predict the rhythms of solar storms but have only a crude understanding of what causes these potentially earth-sizzling eruptions. 
Este último problema ya nos lo hemos encontrado y vimos que, para que la explicación se considere conocimiento, esta debe tener una conexión causal con el hecho. Esa es la razón por la que, como ilustra el propio Tetlock, ningún científico que se precie cambiaría su opinión acerca de la astrología aun cuando un astrólogo hiciera predicciones acertadas, pues ello socavaría un enorme corpus de conocimiento científico establecido. En una situación así lo más lógico sería buscar otros mecanimos subyacentes a esos aciertos.

Podemos ver de forma sencilla la relación entre predicciones y conocimiento considerando los pronósticos sobre el clima. Si la aplicación meteorológica de nuestro teléfono no acierta nunca con la lluvia o con la temperatura de los días venideros diríamos que quienes hacen los pronósticos no tienen ni idea. Afortunadamente, aunque el clima es uno de los mejores ejemplos de oscilaciones caóticas que influyen en el resultado es posible hacer predicciones bastante certeras para cortos periodos de tiempo.

La reputación de los meteorólogos probablemente sea peor de lo que merecen, algo que no diría de los economistas cuyas predicciones yerran con tanta frecuencia que, en mi opinión, hay un sentimiento generalizado de falta de competencia que está justificado. De hecho, hay economistas que comparten esa sensación:

[E]conomics is faulted for its failure to predict. God created economic forecasters to make astrologers look good, quipped John Kenneth Galbraith (himself an economist). Exhibit A in recent times has been the global financial crisis, which unfolded at a time when the vast majority of economists had been lulled into thinking macroeconomic and financial stability had arrived for good. I explained in the previous chapter that this misperception was another by-product of the usual blind spot: mistaking a model for the model.
¿Por qué ligamos conocimiento y pronósticos acertados? Quizá sea un efecto secundario del método científico. Una buena teoría científica no solo explica los fenómenos observados hasta la fecha sino que además permite hacer predicciones claras, precisas y (a menudo) sorprendentes que pueden comprobarse. Simplificando mucho, si las predicciones resultan ser ciertas la teoría es verificada y, si no lo son, la teoría es refutada. Por ejemplo, según la teoría de la relatividad general de Einstein el Sol curva la luz en una magnitud concreta:

Otra verificación astronómica famosa de la relatividad general es la predicción de Einstein de que el Sol curva la luz. La gravitación newtoniana también predice esto, pero la relatividad general predice una cantidad de curvamiento que es dos veces mayor. El eclipse solar total de 1919 proporcionó una oportunidad para distinguir los dos, y Sir Arthur Eddington organizó una expedición, finalmente anunciando que Einstein se imponía. Esto fue aceptado con entusiasmo en la época, pero más tarde se hizo claro que los datos eran pobres y el resultado fue cuestionado. Observaciones independientes adicionales de 1922 parecían estar de acuerdo con la predicción relativista, como lo estuvo un reanálisis posterior de los datos de Eddington. En la década de los sesenta del siglo XX, se hizo posible hacer las observaciones para radiaciones de radiofrecuencia y, solo entonces, fue seguro que los datos sí que mostraban una desviación dos veces mayor que la predicha por Newton e igual a la que predijo Einstein.
Otro buen ejemplo de teoría verificada por sus predicciones es la tabla de elementos de Mendeleiev:

En 1871, Mendeleiev predijo la existencia de tres elementos desconocidos en su tiempo, llegando a señalar sus propiedades más destacadas (incluyendo el peso atómico aproximado). Estas predicciones se vieron confirmadas pronto: en 1875, el francés Paul Émile Lecoq de Boisbaudran (1838-1912) anunciaba el descubrimiento del galio (ekaboro para Mendeleiev); en 1879, el sueco Lars Fredrik Nilson (1840-1899) hacía lo propio con el escandio (ekaluminio), y en 1886, el alemán Clemens Alexander Winkler (1838-1904) descubría el germanio (ekasilicio).
Ejemplos de teorías refutadas por las observaciones serían el modelo geocéntrico de Ptolomeo y la teoría del flogisto. Aunque ambas teorías fueron válidas durante bastante tiempo finalmente acabaron siendo desplazadas por teorías mejores. Durante ese proceso, para acomodar las observaciones que no encajaban se hacían modificaciones ad hoc (añadiendo epiciclos y deferentes en el primer caso, asignando al flogisto un peso negativo en el segundo) que complicaban la teoría o introducían problemas nuevos.

Las explicaciones teológicas que se proponen como alternativa a teorías científicas se comportan igual que las malas teorías: cambian con cada nueva observación para acomodarse a ellas. Esto tiene la ventaja de que la teoría, efectivamente, se adapta a las pruebas lo que, según sus proponentes, prueba que son ciertas. El problema es que cualquier creencia, por rídicula que sea, puede hacerse encajar con las pruebas disponibles. Stephen Law pone el siguiente ejemplo:

Dave believes dogs are spies from the planet Venus. He views any canine with great suspicion, for he believes they are here from Venus to do reconnaissance work. Dogs, Dave supposes, secretly send their reports back to Venus, where the rest of their fiendishly cunning alien species are meticulously planning their invasion of the earth. Their spaceships will shortly arrive from Venus to enslave the human race and take over the world.

Unsurprisingly, Dave's friends think he has a screw loose and try to convince him that dogs are comparatively benign pets, not cunning alien spies. Here's a typical example of how their conversations with Dave go.

 DAVE: It's only a matter of weeks now! The spaceships will arrive and then you'll wish you'd listened to me. We must act now—let the government know!
MARY: Look, Dave, dogs are pretty obviously not space invaders, they're just dumb pets. Dogs can't even speak, for goodness sake, let alone communicate with Venus!
DAVE: They can speak—they just choose to hide their linguistic ability from us. They wait till we leave the room before they talk to each other.
PETE: But Venus is a dead planet, Dave. It's horrifically hot and swathed in clouds of acid. Nothing could live there, certainly not a dog!
DAVE: Dogs don't live on the surface of Venus, you fool—they live below, in deep underground bunkers.
MARY: But then how do earth-bound dogs communicate with their allies on Venus? I've got a dog, and I've never found an alien transmitter hidden in his basket.
DAVE: They don't use technology we can observe. Their transmitters are hidden inside their brains!
MARY: But Pete is a vet, and he's X-rayed several dog's heads, and he's never found anything in there!
PETE: In fact, I once chopped up a dog's brain in veterinary school—let me assure you, Dave, there was no transmitter in there!
DAVE: You're assuming their transmitters would be recognizable as such. They are actually made of organic material indistinguishable from brain stuff. That's why they don't show up on X-rays. This is advanced alien technology, remember—of course we cannot detect it!
MARY: But we don't detect any weird signals being directed at Venus from the earth.
DAVE: Of course, we don't—like I said, remember, this is advanced alien technology beyond our limited understanding!
PETE: How do dogs fly spaceships? They don't even have hands. So they can't hold things like steering wheels and joysticks.
DAVE: Really, Pete. Think about it. You are assuming that their spacecraft will be designed to be operated by human hands. Obviously they won't. They'll be designed to be maneuvered by a dog's limbs, mouth, tongue, and so on.
Como vemos, con cada pregunta Dave añade un «epiciclo» para ajustar su descabellada hipótesis con las observaciones. Muchos de estos ajustes son, además, imposibles de comprobar lo que hace imposible falsificar su teoría, una falta de rigor científico característica de este tipo de explicaciones.

Todos nosotros usamos parte del método científico cada día. ¿Nos gustará esto que probamos por primera vez? ¿Estará peor el tráfico esta mañana? ¿Debería aceptar este nuevo trabajo? Respondemos estas preguntas con predicciones basadas en nuestras propias teorías sobre cómo funciona el mundo o cómo somos nosotros. El método científico dicta que cuando nos equivocamos lo que deberíamos hacer es revisar nuestra teoría. Sin embargo, lo que solemos hacer es poner excusas, igual que hicieron los expertos entrevistados por Tetlock: «no ha pasado pero pasará», «lo que en realidad quise decir era esto otro», «no ha ocurrido por poco», etcétera. Hacer esto es síntoma de que nuestra teoría es errónea lo que significa, a su vez, que no sabíamos tanto como pensábamos.

Continuará.

lunes, 20 de mayo de 2019

¿Experto o cuñado? (II)

En uno de los primeros artículos que publicamos sobre epistemología rescatamos la definición de conocimiento recogida por Platón en su diálogo Teeto, a saber, «una creencia verdadera y justificada». El requisito de veracidad parece de suyo evidente; al fin y al cabo, lo que es falso no puede ser conocido. O, dicho de otra forma, solo se pueden saber cosas que son verdaderas. Respecto a la creencia, la idea que hay detrás es que solo podemos saber aquello en lo que creemos. Por último, la justificación es necesaria porque sin ella podríamos considerar conocimiento conclusiones a las que hemos llegado por azar. Por ejemplo, lanzamos una moneda al aire y decimos: «sé que va a salir cara». Si, efectivamente, sale cara la proposición es cierta pero nadie de nosotros diría que eso cuenta como conocimiento. Es, a lo sumo, una conjetura afortunada.

Sanzio, Raffaello. Scuola Di Atene.

Esta definición del saber es la más conocida y aceptada pero no es perfecta. En 1963 el filósofo Edmund Gettier observó que puede haber creencias justificadas y verdaderas que no son conocimiento. Ilustró su argumento con dos ejemplos:

In the first example, two men, Smith and Jones are up for a job promotion. Smith believes that Jones will get the job, and he believes that Jones has ten coins in his pocket. Because these two sentences involve the same person, Jones, these beliefs also lead to the belief that the man with ten coins in his pocket will get the job. Unbeknownst to Smith, he has ten coins in his own pocket too. When Smith gets the job, it seems fair to state that his belief that the man with ten coins in his pocket will get the job was correct. However, it seems strange to call this belief knowledge since Smith believed the person being referred to was Jones. So it seems that Smith’s belief was false.

[...] In the second example Gettier uses, Smith believes that Jones owns a Ford and he has good reasons for believing this. So, Smith goes ahead and constructs three statements after selecting three random places where his good friend Brown may be located. With any statement that is true, by adding the proposition “or” and a second statement, the new statement is also true. For example: “All unmarried men are bachelors” is true. “Martians exist” is not true. But “Either all unmarried men are bachelors or Martians exist” is true. By using the same logic in the previous example, Smith forms the following statements:

A:Either Jones owns a Ford, or Brown is in Boston.
B:Either Jones owns a Ford, or Brown is in Barcelona.
C:Either Jones owns a Ford, or Brown is in Brest-Litovsk.

Just as in the first example, it turns out that Smith is correct by accident. It turns out that Jones doesn’t own a Ford, instead the Ford Jones has given Smith a ride in was a rental. Brown is in Barcelona. Now, this would seem like a lucky guess, and once again, we would be hard-pressed to call this odd stroke of truth-generating luck knowledge.
Los ejemplos de Gettier se antojan extraños porque en nuestra vida cotidiana no hablamos así. No obstante, son lógicamente sólidos. De acuerdo con las leyes de la lógica, cuando utilizamos el conector «o» basta con que una de las partes sea cierta para que la proposición completa lo sea. Así, frases como «o Silvio Broca es una ameba o la Tierra es redonda» son verdaderas. La conclusión de este autor es que podemos llegar a creer de forma justificada algo que es falso y que la justificación basada en pruebas no elimina todos los casos en los que llegamos a saber por mera cuestión de suerte.

Si las creencias verdaderas y justificadas no son suficientes para calificarlas de conocimiento ¿qué más hace falta? Una posibilidad es que lo importante en realidad sea cómo hemos llegado a albergar dicha creencia:

Since Gettier shows that justified true beliefs fail to count as knowledge, philosophers continue to search for new ways of justifying human knowledge. One of the most prominent ways is to show that it’s the process of coming to know something that produces knowledge. If the process by which one perceives objects is reliable, then we can say it’s the reliability of the process that causes one to have knowledge. This position is called reliabilism.
Reliabilism attempts to explain knowledge in a way that accepts the limitations of human knowledge. It maintains that humans do make mistakes and that our perceptions can be flawed. Because humans are fallible, knowledge that requires certainty should be rejected. Instead, we should focus on the degrees to which our beliefs count as knowledge. For reliabilism, we might have certain knowledge of stuff like mathematics, but our knowledge of everyday interactions with the world should be judged by how reliable our beliefs are produced.
De acuerdo con esta posición filosófica, lo principal no son las pruebas sino la probabilidad de que la creencia sea cierta, y nuestra creencia estará justificada siempre y cuando hayamos llegado a ella a través de un método fiable, esto es, uno que tienda a producir creencias verdaderas (por ejemplo, el método científico). Si este requisito se cumple entonces podremos decir que sabemos algo.

¿Qué significa esto para nuestro cuñado? Significa que para saber no necesita pruebas o buenas razones, todo lo que se requiere es que crea que lo que dice es cierto y que haya llegado a creerlo a través de un mecanismo fiable. Si, verbigracia, leer el periódico o Yahoo Respuestas produjera creencias verdaderas nueve de cada diez veces entonces deberíamos reconocer que nuestro cuñado demuestra poseer conocimiento cuando se deleita repitiendo lo que ha leído ahí.

Sin embargo, no todo método fiable produce conocimiento. Aunque la astrología fuera fiable seguiría sin ser fuente de conocimiento como sí lo es el método científico. ¿Por qué? Porque solo este último está conectado con el mundo externo de forma causal:

Leonard Koppett reliably predicted the rise and fall of the stock market for eighteen out of nineteen years between 1979 and 1998. Using reliabilism, we might be tempted to say that his reliable ability to have predicted the future suggests he had some sort of knowledge about the future. The truth is, however, Koppett was a writer for Sporting News, and he based his predictions concerning the stock market on which league won the Super Bowl. He picked a random event and applied its outcome to an unconnected event, the stock market. Koppett’s beliefs were in no way connected to the stock market, neither causally nor otherwise. So, reliabilism concludes that he didn’t have knowledge.

From the point of view of reliabilism, knowledge results from being causally connected to the world through our reliable belief-forming senses. Predicting the future based on random sporting events is an impressive trick, but it’s not a skill. So, even though Koppett’s predictions were reliable they don’t count as knowledge.
Obviamente, el confiabilismo no es la panacea. Tal como explica Abraham Schwab, que un proceso sea fiable no significa que sea infalible. La falibilidad de nuestro proceso significa que no podemos obtener certezas sino únicamente cierta probabilidad de verdad. Así, algunas de nuestras creencias resultarán ser falsas pero a, cambio, esta postura nos permite creer más cosas de las que estaríamos justificados a creer si el requerimiento para el saber fuera tener certeza absoluta.

Continuará.

lunes, 6 de mayo de 2019

¿Experto o cuñado? (I)

Al estilo de los que hace Jorge Ponce en el programa La resistencia, hagamos un pequeño juego de adivinación. Las siguientes frases ¿son de un experto o de un cuñado?

  • Franco no fue un dictador fascista.
  • Hitler no fue un dictador, fue elegido por el pueblo.
  • El aroma de limón puede prevenir el cáncer.
  • El ladrillo (la inversión inmobiliaria) siempre sube.

Las respuestas correctas son: experto, cuñado, cuñado y experto

El dibujante Pedro Vera define lo que es un cuñado maravillosamente:

El cuñado es un ser perfecto, superior. Un ser de luz, un ente capaz de traspasar océanos con su sabiduría. Sabe de todo y puede opinar de lo que quiera, de cualquier tema que le preguntes. Y response con frases como: "yo tuve un profesor que...". Ese tipo de mierdas.
En nuestra disquisión de hoy trataremos solo este aspecto de tan patria figura, el epistemológico, dejando a un lado las muletillas («esto es como todo», «eso es así»), las frases hechas («diga melón», «¿cómo andamios?») y los superpoderes propios de este ser («eso lo consigo yo por la mitad de dinero»).

¿Cómo obtiene un cuñado su conocimiento? Tomando como ejemplo a mi propio padre, que bien podría protagonizar el libro de Pedro Vera, el cuñado se hace experto en cualquier tema a través de cualquier medio a su disposición: la radio, la televisión, el periódico, las redes sociales, el WhatsApp. Lo sé porque mi progenitor al menos tiene la decencia de citar sus fuentes: «ayer salió en el periódico», «han dicho en la tele», «¿no has visto el whatsapp que dice...?», y así siguiendo. También adquieren conocimientos a través de otros cuñados en sesudos debates a orillas de la barra del bar o su equivalente digital (los foros), así como por la tradición («esto es así de toda la vida») y la propia experiencia vital del individuo («siempre lo he hecho así y me ha funcionado bien»).

Después de un tiempo participando en un foro en el que los temas a discutir son los mismos una y otra vez me dí cuenta de que el cuñado utiliza un modelo simple de estímulo-respuesta, es decir, ante una afirmación concreta este ser responde con una contraria que ha visto, leído u oído en algún momento. Por ejemplo:

Foto de Omurden M. Sezgin
- Quieren prohibir los coches diésel y gasolina.
- Cuñado: ¡pero si los eléctricos contaminan más por la fabricación de la batería!

- Mi móvil va muy lento últimamente.
- Cuñado: eso es que tienes un virus.

- Estoy acatarrado
- Cuñado: toma antibióticos.

Etcétera.

Este comportamiento me recordó el experimento mental de la habitación china formulado por John Searle en 1980:

Searle [...] se imaginaba a sí mismo desempeñando el papel de un computador que está programado para responder preguntas sobre una historieta. El elemento crucial en la explicación de Searle es que tanto la historieta, como las preguntas, como los outputs de Searle, están en chino, un lenguaje que él no entiende. Él es capaz de «responder» a las preguntas solamente porque, junto con los símbolos chinos que contienen la historieta y las preguntas, ha recibido reglas enunciadas en inglés que le dicen cómo producir nuevas ristras de símbolos dependiendo de las ristras que encuentra en la historieta y en las listas de preguntas. Todo el asunto está diseñado tan inteligentemente que, mientras que Searle creía que estaba sólo manipulando símbolos y no sabía que está respondiendo a preguntas en chino sobre una historieta en chino, de hecho estaba produciendo un output perfectamente coherente que los hablantes nativos del chino considerarían auténtico.
Searle mantenía que en este experimento él se estaría comportando como alguien que entendiese chino cuando, en realidad, es una lengua que no comprende. Se limita, sencillamente, a seguir unas reglas para procesar las preguntas y producir las respuestas. Da el pego, pero no hay conocimiento real.

Un cuñado obra de igual manera: para cada aseveración produce una réplica (habitualmente la misma) en sentido contrario. Siendo así no parece difícil replicar un cuñado con un programa informático que responda siempre lo mismo ante ciertas afirmaciones. Convendrán conmigo en que un programa así no puede calificarse de inteligente. No entiende las frases de entrada ni las respuestas, simplemente lleva a cabo conjunto de instrucciones para buscar en una base de datos una contestación. ¿Podríamos distinguir a un cuñado de carne y hueso de un programa así mediante un test de Turing?

Igual que el programa, el cuñado en realidad no entiende las respuestas que da. No sabe en qué se basan, qué razonamientos o datos hay tras ellas o en qué contextos son ciertas, ni cuáles son sus matices o puntos débiles. Todo lo juega al naipe de la autoridad de su fuente, la cual probablemente haya olvidado.

Continuará.

lunes, 22 de abril de 2019

¿Vendo coche? (y III)

Un último sesgo a considerar en el asunto que nos concierne es el efecto dote, a saber, la tendencia a darle más valor a nuestras posesiones por el mero hecho de ser nuestras:

[P]eople have a tendency to stick with what they have, at least in part because of loss aversion. Once I have that mug, I think of it as mine. Giving it up would be a loss. And the endowment effect can kick in very fast. In our experiments, the subjects had “owned” that mug for a few minutes before the trading started. Danny liked to call this the “instant endowment effect.” And while loss aversion is certainly part of the explanation for our findings, there is a related phenomenon: inertia. In physics, an object in a state of rest stays that way, unless something happens. People act the same way: they stick with what they have unless there is some good reason to switch, or perhaps despite there being a good reason to switch. Economists William Samuelson and Richard Zeckhauser have dubbed this behavior “status quo bias.”
Pude experimentarlo hace poco cuando tuve que arrancar el coche nuevo. Allí sentado, con el motor en marcha, miraba el interior y sentía una notable desazón ante la idea de deshacerme de él. Mi cabeza me recordaba que ese vehículo no satisfacía mis demandas mientras que otra voz interna me susurraba que, al fin y al cabo, no estaba tan mal. Incluso llegué a plantearme brevemente la posibilidad de quedármelo para otros usos.

Recientemente he sabido de otra persona que no está nada satisfecha con su coche nuevo. En su caso, después de cuatro meses y dos mil quinientos kilómetros se ha encontrado con un consumo de combustible no solo mayor del homologado (lo cual es habitual) sino tan alto que hace que se pregunte si no será una unidad defectuosa. También ha descubierto que el motor apenas retiene en las bajadas pero, dejando aparte de estos dos inconvenientes, asegura que es buen coche.

No son pocos los que le aconsejan deshacerse de él. Perderá dinero, claro está, pero cuanto más tarde en decidirse mayor será esa pérdida. Hay quien plantea esa pérdida como el precio a pagar por la tranquilidad psicológica: «si estás descontento en cuatro meses imagínate cómo estarás dentro de cinco años».

Otra manera de abordar la decisión sería desde el punto de vista econónmico. Dado que recorre 625 kilómetros al mes en quince años tenemos un total de

625*12*15 = 112.500 kilómetros

Como el gasto de combustible es de diez litros cada cien kilómetros y la gasolina cuesta aproximadamente 1,35 euros el litro vemos que

(112.500*10)/100 = 11250 litros de gasolina son necesarios para recorrer 112.500 kilómetros

11250 * 1,35 = 15187,5 euros cuesta recorrer 112.500 kilómetros

Supongamos que vende el coche perdiendo cinco mil euros y compra otro que consume 6,2 litros cada cien kilómetros. Repitiendo las cuentas anteriores obtenemos este resultado:

(112.500*6,2)/100 = 6975 litros de gasolina son necesarios para recorrer 112.500 kilómetros

6975 * 1,35 = 9416,25 euros cuesta recorrer 112.500 kilómetros

La diferencia entre ambos escenarios es 5771,25 euros. Si descontamos los cinco mil euros que se pierden al cambiar de coche se queda en 771,25 euros, o 51 euros al año. Si el consumo es el único problema quizá no valga la pena hacer el cambio, aunque esto dependerá de los cambios en el precio de la gasolina (cuanto más cara sea peor elección es mantener el coche), del tiempo que tenga previsto poseer el vehículo (cuanto menos tiempo menos le compensará el cambio) y de los kilómetros que vaya a recorrer (cuantos más kilómetros haga al año más rentable será cambiarlo).

Así pues, tenemos dos perspectivas, puntos de vista o marcos desde los que observar el problema: uno de salud mental y otro económico. Ya dijimos que cuando se trata de tomar decisiones la forma en que planteamos el problema, es decir, la perspectiva que adoptamos guía nuestro comportamiento:

[C]onsider the following two ways to frame the routine act of buying or selling a car. Think first of that buyer-seller exchange as an economic transaction. What things come naturally to mind? Most people find that they focus on issues of price, value, reliability, seamless service, credit ratings, negotiating the best deal, warranties, and so on. We can call this perspective on buying and selling a “transactional” frame.

Now think of this same act in terms of a relationship between buyer and seller (a “relational” frame). What aspects of the exchange now come naturally to mind? Probably you thought about things like trust, honesty, consistency, communication, rapport, building mutual confidence, alliances and partnerships, creating a win-win outcome, cooperation, follow-up, and so on.

[...] Both provide important information about the buying-selling activity. But notice how each frame drew your attention toward certain aspects of the buyer-seller exchange and away from others. And as you can easily imagine, if a buyer has adopted a relational frame while the seller operates from a transactional one, each is likely to wonder why the other person is “behaving poorly” or “just doesn’t get it.”
Los autores citados en el párrafo anterior muestran la utilidad de elegir el marco correcto mediante dos imágenes que plantean un problema simple (¿qué línea es más larga?) que puede resolverse rápidamente usando un marco literal:

Russo, J. E., & Schoemaker, P. J. (2002).

Russo, J. E., & Schoemaker, P. J. (2002).

¿Qué marco es el correcto en nuestro caso? Es difícil saberlo. Ambos proporcionan información acerca de un aspecto del problema y dejan fuera otros. Por consiguiente, son parcialmente verdaderos a la vez que incorrectos. Ocurre como en la parábola de los seis hombres ciegos que tocan un elefante y lo describen de forma distinta («es como un muro», «es como un pilar», «es como una cuerda») porque cada uno ha tocado una parte distinta del animal (la trompa, la cola, el lomo, las piernas). Cada uno de ellos tiene razón en parte al tiempo que todos ellos están equivocados.

Finalmente hemos decidido cambiar de coche y descontar el dinero perdido en la transacción del presupuesto para la renovación del segundo coche. Algo que nos ha ayudado a dar el paso es saber que, a largo plazo, tendemos a arrepentirnos de aquello que no hicimos:

[R]ecent evidence indicates that acts of commission are not always more salient than acts of omission. The omission bias undergoes a reversal with respect to decisions made in the more distant past. When asked about what they regret most in the last six months, people tend to identify actions that didn’t meet expectations. But when asked about what they regret most when they look back on their lives as a whole, people tend to identify failures to act. In the short run, we regret a bad educational choice, whereas in the long run, we regret a missed educational opportunity. In the short run, we regret a broken romance, whereas in the long run, we regret a missed romantic opportunity. So it seems that we don’t close the psychological door on the decisions we’ve made, and as time passes, what we’ve failed to do looms larger and larger.
El dolor de la pérdida sigue ahí pero ahora nuestro mayor miedo es que la historia se repita y acabemos decepcionados otra vez. No obstante soy optimista porque en el periodo que sucedía todo esto he aprendido bastante sobre coches y acerca de lo que busco en uno así que veo menos probable que vuelva ocurrir.

Pase lo que pase finalmente lo que más me incomoda es no saber si ha sido una decisión racional. Afortunadamente, mi cerebro (esta vez sí) parece haberse activado en su lucha contra la disonancia cognitiva y, mientras llevaba el automóvil de vuelta al concesionario, resaltaba todo aquello que no me gustaba y me hacía devolverlo. Esperemos que no empiece a importunar cuando me siente en el coche nuevo.

lunes, 15 de abril de 2019

¿Vendo coche? (II)

Un hombre de luna de miel en Las Vegas encuentra una ficha de cinco dólares en el suelo. Se acerca a la ruleta, apuesta y gana. Inmediatamente apuesta el premio recibido y vuelve a ganar. Sigue apostando y ganando: cien dólares, quinientos, mil, dos mil... Así hasta que la apuesta es demasiado alta y debe cambiar de ruleta. En otra mesa donde se aceptan apuestas más altas juega los cien mil dólares que lleva ganados hasta el momento... y pierde. Cuando se encuentra de nuevo con su mujer esta le pregunta cómo le ha ido, a lo que él responde: «no muy mal, solo he perdido cinco dólares».

Con este chiste ilustra Allen Paulos el concepto de cuentas o presupuestos mentales propuesto por Richard Thaler. Según Daniel Kahneman:

Richard Thaler has been fascinated for many years by analogies between the world of accounting and the mental accounts that we use to organize and run our lives, with results that are sometimes foolish and sometimes very helpful. Mental accounts come in several varieties. We hold our money in different accounts, which are sometimes physical, sometimes only mental. We have spending money, general savings, earmarked savings for our children’s education or for medical emergencies. There is a clear hierarchy in our willingness to draw on these accounts to cover current needs. We use accounts for self-control purposes, as in making a household budget, limiting the daily consumption of espressos, or increasing the time spent exercising. Often we pay for self-control, for instance simultaneously putting money in a savings account and maintaining debt on credit cards.
Tendemos a colocar mentalmente nuestro dinero en cuentas aisladas, centrándonos en la fuente o su destino y olvidando que, como propietarios netos, ninguno debería importar. Esto influye en nuestra forma de gastarlo así como en las emociones que sentimos al ganarlo o consumirlo. El ejemplo canónico es el siguiente:

La gente que pierde una entrada de 100 dólares para un concierto, por ejemplo, tiene una tendencia menor a comprar una nueva entrada que la persona que pierde un billete de 100 dólares cuando va a comprar una entrada para asistir al concierto. Aun cuando la cantidad de dinero es la misma en los dos casos, en el primero se suele pensar que 200 dólares es un gasto excesivo para una cuenta de ocio, mientras que en el segundo se asignan 100 dólares a la cuenta de ocio y 100 dólares a la cuenta de «pérdidas desafortunadas» y se compra una segunda entrada.
Otro ejemplo lo propuso el propio Thaler (ibídem Kahneman):

Two avid sports fans plan to travel 40 miles to see a basketball game. One of them paid for his ticket; the other was on his way to purchase a ticket when he got one free from a friend. A blizzard is announced for the night of the game. Which of the two ticket holders is more likely to brave the blizzard to see the game?
The answer is immediate: we know that the fan who paid for his ticket is more likely to drive. Mental accounting provides the explanation. We assume that both fans set up an account for the game they hoped to see. Missing the game will close the accounts with a negative balance. Regardless of how they came by their ticket, both will be disappointed—but the closing balance is distinctly more negative for the one who bought a ticket and is now out of pocket as well as deprived of the game. Because staying home is worse for this individual, he is more motivated to see the game and therefore more likely to make the attempt to drive into a blizzard. These are tacit calculations of emotional balance, of the kind that System 1 performs without deliberation.
La razón parece ser una innata estrechez de miras que veremos a continuación.

Imaginemos que tenemos que elegir una opción para cada uno de los siguientes dilemas:
Decisión 1: elegir entre

A. ganar 240 euros
B. 25% de posibilidades de ganar 1.000 euros y 75% de posibilidades de no ganar nada.

Decisión 2: elegir entre

C. perder 750 euros
D. 75% de probabilidad de perder 1.000 euros y 25% por ciento de probabilidad de no perder nada.

La mayoría de nosotros preferimos A a B y D a C porque tendemos a asegurar las ganancias y a apostar cuando se trata de perder. Sin embargo, la mejor combinación desde el punto de vista matemático es B+C porque con ella tenemos un 25% de probabilidad de ganar 250 euros y un 75% de probabilidad de perder 750 euros, mientras que con la combinación A+D tenemos una probabilidad del 25% de ganar 240 euros (10 euros menos que la otra opción) y un 75% de probabilidad de perder 760 euros (diez euros más que la otra opción).

La razón por la que la mayoría de nosotros optamos por A y D es porque consideramos cada decisión por separado, en secuencia, mientras que para tomar la mejor decisión es necesario plantear el problema como una única elección con cuatro opciones posibles (ibídem Kahneman):

Broad framing was obviously superior in this case. Indeed, it will be superior (or at least not inferior) in every case in which several decisions are to be contemplated together. Imagine a longer list of 5 simple (binary) decisions to be considered simultaneously. The broad (comprehensive) frame consists of a single choice with 32 options. Narrow framing will yield a sequence of 5 simple choices. The sequence of 5 choices will be one of the 32 options of the broad frame. Will it be the best? Perhaps, but not very likely. A rational agent will of course engage in broad framing, but Humans are by nature narrow framers.
Apliquemos estas lecciones a nuestro problema, el cual podemos retratar con el siguiente esquema:

Elegir entre
A. perder 5.000 euros y tener un coche que nos gusta
B. no perder 5.000 euros y tener un coche que no nos gusta

Ya hemos visto que odiamos perder así que nuestra voz interna nos dice que escojamos la opción A.

Consideremos la opción B. En términos contables, nuestro balance en caso de tomar esta vía sería el siguiente:

Compra de coche nuevo: -25.000 €
Venta de coche nuevo: +20.000 €
Compra de coche nuevo: -25.000 €
Total: -30.000 €

Los apuntes anteriores pertenecen a un libro de contabilidad mental que podríamos llamar «coche nuevo». Ahora bien, podemos ampliar el marco y colocar estas transacciones en otro libro. Por ejemplo, tenemos un segundo coche, llamémosle B, que habrá que renovar en un futuro no muy lejano. Si nos hubiera gustado el primer coche la renovación de ambos podría quedar así:

Compra de coche nuevo A: -25.000 €
Compra de coche nuevo B: -15.000 €
Total: -40.000 €

Dado que el coche A no nos ha gustado y queremos deshacernos de él podemos descontar esos 5.000 euros de pérdida del presupuesto del segundo coche con lo que tendríamos:

Compra de coche nuevo A: -25.000 €
Venta de coche nuevo A: +20.000 €
Compra de coche nuevo A: -25.000 €
Compra de coche nuevo B: -10.000 €
Total: -40.000 €

Ampliemos el marco un poco más. Digamos que queremos mantener el coche al menos quince años. Cinco mil euros a lo largo de quince años son unos 333 euros al año, o 28 euros al mes. En nuestro caso no sería difícil ahorrar 28 euros mensuales extra para compensar el cambio. Por ejemplo, podríamos suprimir alguna comida fuera de casa, cambiar de proveedor de telefonía o internet por uno más barato, eliminar alguna suscripción superflua, etcétera. Al considerar el dinero como un todo en lugar de como cuentas separadas nos permite manejarlo de forma más racional.

Cabe preguntarse si no nos estamos engañando en parte. Al fin y al cabo, la pérdida no desaparece, solo la estamos disimulando. Sin embargo, no hay que subestimar el poder de la interpretación porque la forma en la que planteemos el problema provocará diferentes emociones en nosotros:

Different ways of presenting the same information often evoke different emotions. The statement that “the odds of survival one month after surgery are 90%” is more reassuring than the equivalent statement that “mortality within one month of surgery is 10%.” Similarly, cold cuts described as “90% fat-free” are more attractive than when they are described as “10% fat.” The equivalence of the alternative formulations is transparent, but an individual normally sees only one formulation, and what she sees is all there is.

Kahneman concluye que «toda elección sencilla formulada en términos de ganancias y pérdidas puede ser deconstruida de innumerables maneras en una combinación de elecciones de la que resultan preferencias que probablemente sean inconsistentes». Así pues, el quid de la cuestión es plantear el problema de forma que lleve a la decisión más racional, algo nada fácil.

Continuará.

lunes, 1 de abril de 2019

¿Vendo coche? (I)

Hace poco nos entregaron el coche nuevo. Todo parecía ir bien hasta que lo conduje por la autopista: el aislamiento es malo (tanto acústico como del roce de las ruedas con el asfalto), la suspensión es demasiado firme y los asientos, muy duros. Todo esto hace que sea un vehículo incómodo para el propósito para el que lo compramos, a saber, realizar largos viajes por carretera. Parece un coche distinto al que probamos en su día.

Así pues, en lugar de disfrutar de la adquisición andamos sufriendo los remordimientos del comprador:

This is postdecision regret, regret that occurs after we’ve experienced the results of a decision. But there is also something called anticipated regret, which rears its head even before a decision is made. How will it feel to buy this sweater only to find a nicer, cheaper one in the next store? How will it feel if I take this job only to have a better opportunity appear next week?

Postdecision regret is sometimes referred to as “buyer’s remorse.” After a purchasing decision, we start to have second thoughts, convincing ourselves that rejected alternatives were actually better than the one we chose, or imagining that there are better alternatives out there that we haven’t yet explored. The bitter taste of regret detracts from the satisfaction we get, whether or not the regret is justified.
¿Qué deberíamos hacer ahora?¿Deberíamos intentar cambiarlo por otro más adecuado a nuestras necesidades aprovechando que está nuevo, a sabiendas de que aún así perderemos algo de dinero? ¿O deberíamos quedarnos el que hemos adquirido, mal que nos pese?

La compra de un coche nuevo es una decisión difícil de revertir ya que no se puede devolver el producto y recuperar el dinero sin más por culpa de su depreciación ínsita. Curiosamente, este hecho tiene una ventaja desde el punto de vista psicológico (énfasis en el original):

Almost everybody would rather buy in a store that permits returns than in one that does not. What we don’t realize is that the very option of being allowed to change our minds seems to increase the chances that we will change our minds. When we can change our minds about decisions, we are less satisfied with them. When a decision is final, we engage in a variety of psychological processes that enhance our feelings about the choice we made relative to the alternatives. If a decision is reversible, we don’t engage these processes to the same degree.
Por desgracia, los procesos mentales mencionados no parecen estar teniendo lugar. Quizá sea porque, en el fondo, la decisión sí es reversible mientras se esté dispuesto a sacrificar un pequeño capital.

Foto de Daniel Friedman
Barry Schwartz aconseja que, a menos que estemos realmente insatisfechos, nos quedemos con lo que hemos comprado. Una de las razones es que, cuanto más pensemos en los costes de oportunidad (las alternativas que hemos rechazado), menos satisfacción obtenemos de lo que escojemos. Propone que limitemos el tiempo que pasamos pensando acerca de las características atractivas de las opciones descartadas.

Desde este punto de vista, deberíamos quedarnos el coche. Además de no perder dinero con el tiempo terminaríamos por adaptarnos a él, siempre y cuando la lucha del cerebro por reducir la disonancia cognitiva («he comprado este coche», «no me gusta este coche») surta efecto y haga que cada vez nos guste más.

Pero quizá eso no ocurra. Tal vez pasemos años maldiciendo la adquisición, con cada sacudida en la carretera recordándonos el error que cometimos. Ahora mismo la perspectiva de llegar con dolor de cabeza a cada destino por el ruido de rodadura no es muy halagüeña. Visto así tal vez lo irracional sea resignarnos.

Consideremos un símil culinario. Vamos a un restaurante y pedimos un plato que no hemos probado antes. Damos el primer bocado y no nos gusta nada. ¿Es razonable terminar de comerlo porque ya lo hemos pagado? Un economista nos diría que no:

Another bias is the sunk cost fallacy. This is when you’ve spent money on something you don’t want to own or don’t want to do and can’t get it back. For instance, you might pay too much for some take-out food that really sucks, but you eat it anyway, or you sit through a movie even after you realize it’s terrible.

Sunk cost can creep up on you too. Maybe you’ve been a subscriber to something for a long time and you realize it costs too much, but you don’t end your subscription because of all the money you’ve invested in the service so far. Is Blockbuster better than Netflix, or TiVo better than a generic DVR? If you’ve spent a lot of money on subscription fees, you might be unwilling to switch to alternatives because you feel invested in the brand.
La lección aquí es que los gastos en los que ya hemos incurrido no deben tenerse en cuenta a la hora de tomar decisiones de cara al futuro porque ese dinero ya está gastado y no lo podemos recuperar. Por tanto, si no queremos caer en la falacia de los costes irrecuperables lo único en lo que debemos pensar son las ganancias y pérdidas futuras:

This mistake like the sunk cost error arises because people fail to realise that all that matters is their future gains and losses. The past is the past and is irrelevant. If at this moment I will lose by continuing an activity, I should discontinue it no matter how much I have already invested. If at this moment I would benefit by undertaking some activity (e.g. the theatre) I should not be put off by the fact that I have already lost some investment in it (the lost seat). All decisions should be based solely on the present situation: they should look to the future and ignore the past, except in so far as one can learn from it.
Desde esta perspectiva todo el dinero que gastemos en un coche que no nos gusta solo porque es el que hemos comprado es un gasto irracional y lo mejor sería deshacernos de él cuanto antes:

Cada decisión, ya sea privada o empresarial, siempre sucede bajo incertidumbre. Lo que nos figuramos, puede cumplirse o no. En cualquier momento puede uno abandonar el camino tomado, por ejemplo, interrumpir el proyecto y vivir con las consecuencias. Esta ponderación ante la incertidumbre es una conducta racional. La falacia del coste irrecuperable ataca especialmente cuando ya hemos invertido mucho tiempo, dinero, energía, amor, etcétera. El dinero invertido seguirá siendo el motivo, aunque visto con objetividad no tenga sentido. Cuanto más se haya invertido, es decir, cuantos mayores sean los costes irrecuperables, más fuerte será la presión para continuar con el proyecto.
Ahora bien, sobreponerse a la falacia de los costes irrecuperables significa que debemos asumir una pérdida económica. Supongamos que el coche nuevo nos ha costado veinte mil euros. Al estar matriculado ya se ha depreciado. Digamos, por mor del argumento, que podemos venderlo por quince mil euros como máximo. Este, como bien saben los inversores, es un plato muy difícil de digerir con un nombre conocido que al lector ilustrado le será familiar:

Loss aversion refers to the relative strength of two motives: we are driven more strongly to avoid losses than to achieve gains. A reference point is sometimes the status quo, but it can also be a goal in the future: not achieving a goal is a loss, exceeding the goal is a gain. As we might expect from negativity dominance, the two motives are not equally powerful. The aversion to the failure of not reaching the goal is much stronger than the desire to exceed it.
Al dolor de la pérdida hay que sumarle que, en este caso, dicha pérdida es fruto de una decisión activa; hay estudios que sugieren que las pérdidas pasivas producen menos pesar.

Resumiendo lo visto hasta ahora, lo que yo deduzco de los párrafos anteriores es que en la situación en la que me encuentro actuar racionalmente significa perder cinco mil euros. O bien, que para tomar una decisión racional debo preguntarme si estoy dispuesto a pagar una prima de cinco mil euros para viajar realmente cómodo.

Continuará.

lunes, 25 de marzo de 2019

¿Ketchup o Catsup? (y II)

Hablemos ahora de otro método con nombre rimbombante, el analytic hierarchy process o AHP. A diferencia de las que hemos visto hasta ahora esta técnica no se basa solo en matemáticas sino que también se apoya en la psicología. Fue desarrollado por Thomas L. Saaty en la década de los ochenta y revisado en las décadas siguientes. La versión que vamos a examinar es la original.

AHP funciona descomponiendo un problema complejo en un sistema de jerarquías que representan los aspectos más relevantes del mismo, tales como criterios a satisfacer, subcriterios que forman esos criterios, alternativas disponibles y atributos de estas. El objetivo se sitúa en el cénit de la jerarquía y el resto de aspectos en niveles por debajo del mismo. La imagen siguiente muestra un ejemplo de jerarquía para un problema que consiste en elegir al mejor dirigente de los tres candidatos posibles:

Imagen de Wikimedia Commons

Los números que aparecen en la imagen tienen dos significados. El objetivo (goal) siempre tiene valor 1. En el caso de los criterios los números indican la importancia relativa y tienen que sumar 1 (el valor del objetivo). Finalmente, en el nivel de las alternativas los números indican hasta qué punto una alternativa dada satisface los criterios de la jerarquía superior. Así pues, en este ejemplo concreto lo que más importa es que el candidato tenga experiencia y formación, y Dick es la mejor opción.

Para obtener las cifras que representan la importancia de cada criterio se evalúan estos entre sí tomados de dos en dos. Quien ha de tomar la decisión final utiliza su propio juicio para determinar, dado un par concreto, qué es más importante. Para convertir valoraciones lingüísticas en números Saaty propuso la siguiente escala:

Imagen de Wikimedia Commons

La razón de ser de esta escala es la ley del umbral de diferencia enunciada por el psicólogo experimental del siglo XIX Ernst Weber:

In 1846 Weber [...] stated his law regarding a stimulus of measurable magnitude. According to his psychological theory a change in sensation is noticed if the stimulus is increased by a constant percentage of the stimulus itself. That is, people are unable to make choices from an infinite set. For example, people cannot distinguish between two very close values of importance, say 3.00 and 3.02. Psychological experiments have also shown the intriguing fact that most individual cannot simultaneously compare more than seven objects (plus or minus two)[Miller, 1956]. This is the main reasoning used by Saaty to establish 9 as the upper limit of his scale, 1 as the lower limit and a unit difference between successive scale values.
Esta es, por lo tanto, la parte del método que se apoya en la psicología. Por un lado, la escala trata de reflejar cómo percibimos los estímulos y tiene en cuenta nuestras limitaciones al hacer comparaciones. Por otro, se abre la puerta para introducir nuestras preferencias y juicios en el proceso de decisión, lo que hace posible considerar factores subjetivos como el diseño, el sabor, características de personalidad, etcétera.

Ahora que ya conocemos por encima el AHP vamos a aplicarlo a nuestro dilema del ketchup. Recordemos nuestras alernativas:

  • Ketchup
  • Ketchup sin azúcar
  • Catsup
  • Catsup light
Estos serán los criterios que consideraremos para tomar nuestra decisión:

  • Precio
  • Sabor
  • Información nutricional

El primer paso es determinar la importancia que tiene para nosotros cada uno de los atributos anteriores. Para ello, como hemos dicho, debemos compararlos dos a dos y codificarlo según la escala de Saaty. Supongamos lo siguiente:
  • El sabor nos importa más que el precio, ya que el ketchup no es un producto demasiado caro, pero tampoco queremos gastar de más. Digamos que la importancia del sabor sobre el precio es de 7 (muy importante).
  • El sabor nos importa algo más que la información nutricional. Ponemos, por ejemplo, un dos.
  • La información nutricional (la cantidad de azúcar y sal) nos importa más que el precio y estamos dispuestos a pagar más por ello. Pongamos un 9.

PrecioSaborInf. nutricional
Precio1??
Sabor712
Información nutricional9?1

Las casillas marcadas con signo de interrogación son los valores recíprocos de las comparaciones ya hechas con lo que tabla completa queda así:


PrecioSaborInf. nutricional
Precio10,143 (1/7)0,111 (1/9)
Sabor712
Inf. nutricional90,5 (1/2)

1

Aplicando unos cálculos que vamos a obviar por razones de espacio (vectores eigen, para los interesados) obtenemos la siguiente jerarquía de prioridades:


    El siguiente paso es, para cada criterio, comparar las alternativas de dos en dos según dicho criterio. Verbigracia:

    Comparación de sabor
    KetchupKetchup sin azúcar3El ketchup normal es moderadamente más sabroso que la alternativa sin azúcar
    KetchupCatsup1Ketchup y catsup nos saben igual
    KetchupCatsup light5El ketchup nos sabe bastante mejor
    CatsupCatsup light2El catsup normal nos sabe algo mejor
    CatsupKetchup sin azúcar3El catsup normal nos sabe moderadamente mejor
    Catsup lightKetchup sin azúcar2El catsup light nos sabe algo mejor

    Con las premisas anteriores nos quedaría la siguiente matriz de valoraciones:

    Ketchup Catsup Ketchup sin azúcar Catsup light
    Ketchup 1 1 3 5
    Catsup 1 1 3 2
    Ketchup sin azúcar 0,33 (1/3) 0,33(1/3) 1 0,5 (1/2)
    Catsup light 0,2 (1/5) 0,5 (1/2) 2 1


    Con estos valores hacemos los mismos cálculos que antes con los criterios y nos queda la siguiente jerarquía:


    Podemos ver que, en lo atinente al sabor, el ketchup normal es la mejor elección.

    Nos queda repetir el mismo procedimiento para los otros dos criterios. Las comparaciones serán más fáciles de hacer ya que se trata de cantidades numéricas (para la información nutricional podemos, verbigracia, usar la calificación obtenedia mediante TOPSIS en el artículo anterior). Digamos que nuestra jerarquía final queda así:


    Ahora que conocemos las prioridades de los criterios con respecto al objetivo, así como las prioridades de las alternativas con respecto a los criterios, podemos calcular las prioridades de las alternativas con respecto al objetivo. Para ello basta con multiplicar y sumar a lo largo de la jerarquía.

    CriterioPrioridadAlternativaResultado
    Sabor0,554Ketchup
    Ketchup sin azúcar
    Catsup
    Catsup Light
    0,417 x 0,554 = 0,231
    0,105 x 0,554 = 0,058
    0,329 x 0,554 = 0,182
    0,149 x 0,554 = 0,083
    Precio0,06Ketchup
    Ketchup sin azúcar
    Catsup
    Catsup Light
    0,383 x 0,06= 0,023
    0,128 x 0,06= 0,008
    0,347 x 0,06= 0,021
    0,142 x 0,06= 0,009
    Inf. nutricional0,385Ketchup
    Ketchup sin azúcar
    Catsup
    Catsup Light
    0,072 x 0,385= 0,028
    0,413 x 0,385= 0,159
    0,102 x 0,385= 0,039
    0,413 x 0,385= 0,159


    AlternativaPrioridad respecto al saborPrioridad respecto al precioPrioridad respecto a la inf. nutricionalRespecto al objetivo
    Ketchup0,2310,0230,0280,282
    Ketchup sin azúcar0,0580,0080,1590,225
    Catsup0,1820,0210,0390,242
    Catsup light0,0830,0090,1590,251


    Por lo que concluimos que la mejor alternativa según nuestras preferencias es el ketchup normal, seguido del catsup light.

    No les recomiendo calcular el árbol de jerarquías a mano; es un proceso largo y tedioso. Para ello es mejor usar una de las muchas aplicaciones informáticas existentes que permiten introducir los criterios, registrar las alternativas y asistirnos en las comparaciones de forma ágil.

    AHP no es tan intuitivo como el mero hecho de sumar o multiplicar valores de atributos pero nos permite considerar características subjetivas. Además, las decisiones se pueden tomar en conjunto. Por ejemplo, un grupo de personas encargado de tomar la decisión va acordando la importancia relativa de cada propiedad cuando se hacen las comparaciones dos a dos.

    Respecto a los inconvenientes de AHP, puede darse el caso de que al añadir nuevas alternativas cambie el orden de clasificación de las mismas (problema conocido como rank reversal que afecta también a TOPSIS y el método basado en la suma que vimos en su día). Otro aspecto que cabe criticar son las escalas utilizadas para traducir un juicio del tipo «A es mucho mejor que B» en un número. La escala propuesta por Saaty que hemos visto es lineal mientras que otros autores abogan por escalas exponenciales.

    AHP es uno de los métodos de decisión más usados y estudiados. Si quieren aprender más la página inglesa de Wikipedia desarrolla un par de ejemplos paso a paso. El primero, la elección de un directivo, es básico como el que hemos visto aquí. El otro, la elección de un coche para la familia, es más elaborado pues introduce conceptos que hemos obviado como las jerarquías múltiples.

    lunes, 11 de marzo de 2019

    ¿Ketchup o Catsup? (I)

    Cuando el señor Burns se ve obligado a valerse por sí mismo no le queda otra opción que ir al supermercado a hacer la compra. Allí, cual asno de Buridan, se queda petrificado en un pasillo incapaz de decidirse por una de las dos opciones que sostiene en sus manos, un bote de ketchup y un bote de catsup.

    The Simpsons 4F17

    Supongamos que la información nutricional de los productos entre los que duda el señor Burns es la siguiente (por cada cien gramos):

    CarbohidratosSal
    Ketchup33,3 gramos907 mg
    Catsup27 gramos1067 mg

    El señor Burns es una persona de edad provecta así que debería vigilar su consumo de sal, por lo que vamos a considerar que lo más adecuado para él es la salsa con menos cantidad de sodio. En este caso la elección es obvia: ketchup.

    No me consta que Burns tenga problemas de diabetes pero, en cualquier caso, consumir la menor cantidad de azúcar es un consejo de salud habitual. La mejor opción en este caso también es evidente: catsup.

    Ahora bien, ¿cuál es la mejor opción teniendo en cuenta los dos criterios anteriores? Si son lectores habituales del blog recordarán que hemos estudiado con cierto detalle una posible solución a este tipo de problemas. Me gustaría presentarles un par de métodos alternativos. Antes de describirlos ampliemos nuestro abanico de opciones de ejemplo:

    CarbohidratosSal
    Ketchup33,3 gramos907 mg
    Ketchup sin azúcar3,4 gramos2000 mg
    Catsup27 gramos1067 mg
    Catsup Light16,6 gramos1800 mg


    TOPSIS son las siglas de Technique for Order Preference by Similarity to Ideal Solution. Suena sofisticado ¡así que debe de ser bueno! Fue desarrollado por Yoon y Hwang en 1980 bajo una premisa sencilla: la mejor opción es aquella que está más cerca de la solución ideal y, a la vez, más alejada de la peor alternativa posible.

    ¿Qué entendemos por «cerca» y «lejos» en este contexto? Lo mismo que en nuestra vida diaria: «cerca» es la distancia en línea recta o la trayectoria más corta posible entre dos puntos (es lo que se conoce como distancia euclidiana, por el célebre matemático Euclídes). Es un concepto muy fácil de entender con una imagen:


    En una línea recta que va desde 0 a 2.500 hemos situado nuestras opciones según su cantidad de sal. La peor elección sería el ketchup sin azúcar; la mejor, el ketchup normal. Es de suyo evidente que dicho producto es el que más cerca está de la mejor opción y más lejos se sitúa de la peor.

    Antes de continuar reflexionemos brevemente sobre el significado de la imagen anterior. Hemos dibujado una línea recta que empieza en 0. Sobre ella hemos situado nuestras opciones según el valor de uno de sus atributos (la sal). Con ello hemos creado un mundo unidimensional en el que la distancia viene marcada por la separación entre los puntos y es fácil de calcular con una simple resta.

    Añadamos ahora nuestro segundo criterio, a saber, los carbohidratos. Tendremos, pues, dos atributos o características a considerar. Dicho de otra forma, ahora tenemos un mundo bidimensional. ¿Qué mejor forma de representarlo que con el plano cartesiano?


    En nuestro plano la opción ideal, si existiera, se situaría en las coordenadas correspondientes a la menor cantidad de sal (900) y la menor cantidad de carbohidratos (16,6). Añadámosla al plano:

    Ahora que tenemos dos dimensiones ¿cómo podemos calcular la distancia de una salsa en concreto a la solución ideal? La respuesta es fácil de ver con una imagen:


    En efecto, la distancia hacia la mejor opción es la hipotenusa de un triángulo rectángulo. Calculando las hipotenusas del rectángulo correspondiente a cada alternativa podríamos clasificarlos según su distancia hacia la solución ideal y, a partir de ahí, ver qué elección es la mejor.

    ¿Qué ocurre si tenemos que tomar decisiones entre alternativas que tienen más de dos atributos a considerar? No hay ningún problema porque la distancia euclidiana se puede calcular para cualquier número de dimensiones.

    Imagen de Wikimedia Commons

    Ahora bien, antes de medir las distancias hay que normalizar los datos. En el problema que nos ocupa hoy la escala que mide la cantidad de sal es mucho mayor que la que mide la cantidad de carbohidratos. La primera va de 900 a 2000, mientras que la segunda se mueve entre 16 y 35. Si queremos que ambos factores tengan idéntica importancia es necesario, como vimos en su día, normalizar los valores.

    En aquella ocasión estudiamos en su momento diferentes maneras de normalizar un conjunto de datos. TOPSIS utiliza la normalización vectorial. Sin entrar en detalles, lo que se logra con este tipo de normalización es que las hipotenusas tengan una distancia comprendida entre 0 y 1.

    CarbohidratosSalCarbohidratos (normalizado)Sal (normalizado)
    Ketchup33,3 907 0,720,3
    Ketchup sin azúcar3,4 2000 0,740,66





    Catsup27 1067 0,590,35





    Catsup Light16,6 1800 0,360,59






    Una vez hecha la normalización el siguiente paso es añadir pesos. Cada característica puede tener un peso distinto con la condición de que la suma de todos los factores sea uno. Así, si nos importan lo mismo el contenido de sal y el de carbohidratos, los pesos serán 0,5 y 0,5. Si, por ejemplo, la cantidad de sal nos importara cuatro veces más que la de carbohidratos los pesos serían 0,8 y 0,2.





    Carbohidratos (normalizado, con peso 0,5)Sal (normalizado, con peso 0,5)



    Ketchup



    0,360,15



    Ketchup sin azúcar



    0,370,33



    Catsup



    0,30,18



    Catsup Light



    0,180,3





    Después de aplicar los pesos a los valores normalizados se determinan las soluciones ideal y pésima. La solución ideal es aquella que, si existiera, tendría los mejores valores posibles. Recordemos que, en nuestro caso, esto corresponde a la menor cantidad de sal y de carbohidratos. La solución pésima es aquella que tiene los peores valores posibles.





    Carbohidratos Sal



    Opción ideal



    0,180,15



    Opción pésima



    0,370,33

























    Finalmente, se calculan las distancias para cada alternativa hacia la solución ideal y la opción pésima y se aplica una fórmula para calcular la cercanía relativa.

    Imagen de Wikimedia Commons

    El resultado será un valor entre 0 y 1. Cuanto mayor es este valor, mayor es la prioridad (mejor opción es).







    Distancia hasta la mejor opciónDistancia hasta la peor opciónPuntuaciónClasificación
    Ketchup





    0,180,180,364
    Ketchup sin azúcar





    0,2400,641
    Catsup





    0,120,170,43
    Catsup Light





    0,120,190,472

    En nuestro caso, concluimos que la mejor elección es el ketchup sin azúcar.

    TOPSIS no es método perfecto. Su premisa es fácil de entender (¿qué opción se acerca más a la ideal?) pero laboriosa de calcular a mano, razón por la cual hemos omitido algunas ecuaciones. Afortunadamente, existen aplicaciones y herramientas web para ello.

    Por otro lado, en TOPSIS se asume que cada criterio tienen una utilidad que crece o decrece de forma monótona, lo que traducido a lenguaje llano quiere decir que tiene la misma importancia un gramo de carbohidratos independientemente de si es el único presente o el centésimo primero. Por tanto, no presenta el efecto de saturación que sí mostraba nuestro método multiplicativo con lo que no refleja fielmente cómo los humanos satisfacemos nuestros apetitos.

    Otro inconveniente de TOPSIS es que solo es válido con escalas ordinales (aquellas que tienen un cero natural), por lo que no sirve para lidiar con atributos subjetivos como el sabor o el aspecto. Finalmente, como trabaja con datos normalizados el orden de la clasificación puede cambiar y dar lugar a incongruencias cuando se añaden o se eliminan opciones.

    Continuará.