lunes, 31 de agosto de 2015

Hechos

El conocimiento científico avanza poco a poco. Progresa, como dice Ben Goldacre, «a través de temas y teorías que emergen gradualmente, respaldadas por un cúmulo de pruebas provenientes de una serie de disciplinas y que operan a diversos niveles explicativos». De ese cúmulo de pruebas surge una de las mayores virtudes de la ciencia: la capacidad de corregirse a sí misma. A la larga, los falsos hallazgos que se publican quedan enterrados bajo aquellos que prueban algo distinto y la verdad sale a la luz. Esa es, al menos, la teoría. En la práctica, este sistema presenta multitud de problemas que afectan a cómo es percibida la ciencia por la sociedad.

Para empezar, los hallazgos erróneos son persistentes, no solo entre el común de la población sino también entre los propios científicos. Un resultado equivocado puede seguir tomándose como verdadero durante mucho, mucho tiempo. Teniendo en cuenta que el número de estudios que acaban retractándose crece cada año, esto supone un problema importante:

Even when research errors are outed, the original claims often manage to persist for years and even decades. A study by the computer scientist Murat Çokol and his colleagues at Columbia University found that a good deal less than one-hundredth of 1 percent of all journal articles published between 1950 and 2004 were formally acknowledged as seriously flawed, a percentage that Çokol’s computer model suggested should be as much as 200 times larger. Ioannidis, too, found evidence of the persistence of bad findings. Helooked at studies reporting the cardiovascular benefits of vitamin E, anticancer benefits of beta-carotene, and anti-Alzheimer’s benefits of estrogen—important studies that were published in 1993, 1981, and 1996, respectively, and that were each convincingly and prominently refuted in one or more larger studies around 1999, 1994, and 2004, respectively. In 2005, the most recent year Ioannidis checked, half of the researchers who cited the original study of vitamin E did so in the context of accepting the original results, and through 2006 a little more than 60 percent cited the original beta-carotene and estrogen studies, though the results had been solidly refuted—thirteen years earlier in the case of beta-carotene.
En segundo lugar, la necesidad de acumular datos para afianzar los hechos puede dar la sensación de que todo conocimiento es provisional y discutible. Las recomendaciones dietéticas para perder peso han pasado con el tiempo del «coma menos pan» (¡el problema son los carbohidratos!) al «coma menos grasa» (¡el problema son las grasas!) al –de nuevo– «coma menos pan» (¡el problema es el azúcar refinado!). Ciclos semejantes han tenido lugar respecto a cómo afectan a nuestra salud la carne, los plásticos o los edulcorantes. A consecuencia de esto las verdades científicas se consideran modas pasajeras (hoy el café es sano, mañana no) y, por tanto, desechables. No obstante, esta es una apreciación equivocada, el menos en parte. Por ejemplo, la explicación de Arquímedes sobre por qué las cosas flotan es correcta desde hace más de dos mil años. El libro de Arbesman muestra cómo no todos los hechos cambian al mismo ritmo y que algunos, a efectos prácticos, nunca lo hacen.

Fuente: Free the facts!, por Dave Gray

Finalmente, tenemos el problema de los medios de comunicación. Estos nos hablan únicamente de aquellos experimentos o estudios que constituyen noticia. Desgraciadamente, por el teorema de Bayes sabemos que los motivos por los que un estudio es digno de un titular (ser relevante, novedoso e inesperado) son los mismos por los que cabe esperar que sea falso. Otro problema de la cobertura informativa es que, dado que los periodistas son incapaces de valorar la evidencia científica en su conjunto, acaban recurriendo a figuras de autoridad. A consecuencia de ello, las verdades científicas se caracterizan como conocimiento revelado, situándolas así al mismo nivel que el dogma:

¿Cómo sortean los medios el problema de su incapacidad para proporcionarnos la evidencia científica propiamente dicha? A menudo, lo hacen recurriendo a figuras de autoridad (un recurso que constituye la antítesis misma de la esencia de la ciencia) y tratándolas como si de curas, políticos o figuras paternas se tratara. «Un grupo de científicos ha dicho hoy que…» «Unos científicos han revelado que…» «Los científicos han advertido que…»
Eso hace que no se traten correctamente los casos de disentimiento. El periodista o el programa de televisión de turno presenta a un científico asegurando una cosa y a otro que lo cuestiona (a veces ni siquiera son científicos del mismo ramo o no son expertos en el asunto tratado). Como para los medios de comunicación todos los científicos valen lo mismo y todas su afirmaciones son igual de válidas, la verdad pasa a ser una cuestión de retórica:

[C]uando existe algún tipo de controversia en torno a lo que nos muestran las evidencias, el recurso a las figuras de autoridad reduce el debate a una mera bronca o intercambio de improperios, ya que una afirmación como «la vacuna triple vírica provoca autismo» (o no) sólo puede ser criticada en función del carácter de la persona que la formula, y no en función de las pruebas que dicha persona puede presentar.
Cuando esto ocurre, cuando el conocimiento que aceptamos depende de las dotes del orador, es cuando se abre la puerta a las seuodociencias, aquellos conjuntos de creencias promovidos por figuras de autoridad cuestionables, gente que sostiene estrafalarias teorías sin tener pruebas o basándose en evidencias débiles, y cuyas afirmaciones contravienen hechos bien establecidos.

Al pensar en la palabra «hechos» nos referimos intuitivamente a verdades objetivas, independientes del observador y que pueden ser comprobadas por cualquiera. Al ser externas a nosotros, no concebimos dichas verdades como fruto de un consenso o como el resultado de una votación. John Oliver lo explica así en relación a una encuesta de Gallup que muestra que uno de cada cuatro estadounidenses es escéptico respecto al cambio climático:

Who gives a shit? You don’t need people’s opinion on a fact. You might as well have a poll asking: ‘Which number is bigger, 15 or 5?’ or ‘Do owls exist?’ or ‘Are there hats?’
Por desgracia, la incertidumbre inherente a la ciencia hace que no sea fácil determinar lo que es un hecho y lo que no. Todo depende de en qué punto de la investigación nos encontremos: al principio la incertidumbre será grande y probablemente nos veremos en la situación de tener que revisar los hechos conforme vayamos obteniendo nuevas pruebas. En su día ya vimos que no podemos confiar en el resultado de un solo estudio científico. En aquella entrada y en la de la semana pasada señalamos unas cuantas razones para ello. La conclusión es que el método científico nos obliga a llevar a cabo muchos experimentos, a recoger muchos datos y a considerar la bibliografía completa antes de sacar conclusiones o tomar decisiones.

Claro que ¿quién tiene tiempo, ganas y formación suficiente para hacer eso? Si recurrimos a figuras de autoridad es porque asumimos que tienen las tres. Eso no supondría un problema si valoráramos a cada autoridad según la calidad de la ciencia que maneja, lo cual no es muy factible si uno no es, a su vez, un científico. De modo que cada cual, de nuevo, actúa según le parece. Algunos se fían del consenso científico. Otros solo hacen caso a las voces discordantes, bien porque crean que son los únicos que tienen valor a decir la verdad o porque lo que dicen encaja con su visión del mundo. Por último, están quienes no se fían de nadie. En definitiva, cada cual elige sus propios hechos.

lunes, 24 de agosto de 2015

Mala ciencia

Consultores, entrenadores, economistas, gurús de las relaciones personales o de la vida en general, consejeros de celebridades, asesores financieros, directores generales, comentaristas deportivos, tertulianos... como ya hablamos, abundan los expertos. Pueblan el espectro electromagnético y nos hacen llegar sus consejos (normalmente equivocados) a través de la televisión, la radio o internet. A la hora de defender sus argumentos suelen apelar a su experiencia personal, al éxito de su carrera o a un puñado de historias de gente que siguió sus consejos y logró un final feliz. Si se les interroga sobre sus fuentes de conocimiento, la respuesta varía según el asunto tratado. Un experto en felicidad puede recurrir a antiguos textos budistas. Un experto en finanzas puede invocar el nombre de grandes autoridades en la materia (algún premio Nobel, por ejemplo). Pero la mayor parte de ellos, en algún momento u otro, echan mano de la ciencia, ya sea en forma de estudios científicos o en palabras de algún académico o investigador. Y es que no hay nada como una pátina de ciencia para defender la solidez de nuestros argumentos:

La ciencia goza de una alta valoración. Aparentemente existe la creencia generalizada de que hay algo especial en la ciencia y en los métodos que utiliza. Cuando a alguna afirmación, razonamiento o investigación se le da el calificativo de «científico», se pretende dar a entender que tiene algún tipo de mérito o una clase especialidad de fiabilidad.
[...] Los anuncios publicitarios afirman con frecuencia que se ha mostrado científicamente que determinado producto es más blanco, más potente, más atractivo sexualmente o de alguna manera preferible a los productos rivales. Con esto esperan dar a entender que su afirmación está especialmente fundamentada e incluso puede que más allá de toda discusión.
Foto de Sergei Golyshev
Según la concepción popular, la ciencia se basa en hechos, afirmaciones sobre el mundo que pueden comprobarse directamente, verdades objetivas que todos hemos de aceptar. Además de eso, lo que hace especial a la ciencia es su método, el «método científico». Lo recordarán del colegio. A grandes rasgos, se empieza con una pregunta («¿por qué el cielo es azul?»), se formula una hipótesis, se desarrollan las consecuencias lógicas de la misma, se lleva a cabo un experimento para ponerla a prueba y se analizan los resultados. Si las pruebas obtenidas en el experimento contradicen la hipótesis es necesario desecharla y desarrollar una nueva. Si la confirman, se comprueban otras predicciones de dicha hipótesis. Una vez la hipótesis cuenta con suficientes pruebas a favor pasa a desarrollarse una teoría.

La calidad de la ciencia reside en los detalles, allí donde, según el dicho, habita el diablo. En cada paso del método científico se puede cometer un traspié y el libro de David H. Freedman titulado Wrong: Why Experts Keep Failing Us - and How to Know When Not to Trust Them contiene una buena lista de todo lo que puede salir mal. Para empezar, pueden cometerse errores en algo tan sencillo como recopilar los datos (al tomar la presión arterial de los sujetos de estudio o al medir la temperatura del océano o al calcular la contaminación del aire). A veces dichos errores nos obligan a tener que descartar observaciones, lo que introduce el problema de qué datos se descartan con razón y cuáles se desechan por un sesgo inconsciente. Terminada la toma de datos, a la hora de analizar los resultados los errores estadísticos son frecuentes.

No es fácil diseñar experimentos para probar ciertas hipótesis, por lo que los científicos a veces sustituyen una pregunta por otra más fácil de responder y acaban midiendo cosas que no importan. Por ejemplo, ante la pregunta «¿este medicamento cura el cáncer?» un estudio puede estar diseñado para determinar si dicho medicamento reduce el tamaño del tumor, ya que medir eso es mucho más sencillo que observar a una población durante años para determinar si los que tomaron el medicamento vivieron más. Por desgracia, el tamaño del tumor puede que no esté relacionado con la mortalidad del cáncer. Este uso de indicadores secundarios es bastante habitual y tiene su máxima expresión en los experimentos con animales. Siempre que se trate de un estudio con otra especie hay que esperar a los resultados con humanos ya que, por mucho que se nos parezcan, nada nos asegura que el resultado sea extrapolable.

Otro error bastante común es que los datos soporten la hipótesis pero que dicha hipótesis sea falsa en realidad y el efecto observado se deba a un tercer factor no contemplado. Por ejemplo, un estudio puede concluir que la gente que duerme menos de seis horas diarias tiene mayor probabilidad de ser obesa. Sin embargo, quizá la razón de que haya correlación entre ambas variables sea que la gente sana se preocupa tanto de hacer ejercicio como de comer y de dormir bien. Si esa fuera la explicación, no es de esperar que uno vaya a adelgazar a base de dormir más cada noche. Todos los tipos de estudio (observacional, epidemiológico, meta-análsis, doble ciego) están afectados por este problema en mayor o menor medida.

Algunos fallos no son tan inocentes y están relacionados con los incentivos a los que se enfrentan los investigadores. Como explica Gerry Carter en su artículo, los objetivos de la ciencia como tal y de quienes la practican no son los mismos. El éxito científico no equivale a éxito académico. Hacer ciencia de calidad (falsificable, repetible y correcta) no lleva automáticamente a ser influyente, reconocido y ascendido. A los científicos se les premia laboralmente por obtener resultados novedosos, revolucionarios y sorprendentes. Estos requisitos, unidos a la enorme competencia, reducen la calidad de la ciencia practicada. Al final, lo que es importante para un científico no es tanto la verdad como el demostrar que algo es cierto, pues eso es lo que necesita para conseguir una plaza en una universidad o dinero para investigación:

Most of us don’t think of scientists and other academic researchers as cheaters. I certainly don’t. What could motivate such surprisingly nontrivial apparent levels of dishonesty? The answer turns out to be pretty simple: researchers need to publish impressive findings to keep their careers alive, and some seem unable to come up with those findings via honest work. Bear in mind that researchers who don’t publish well-regarded work typically don’t get tenure and are forced out of their institutions. It’s an oppressive system and one that’s becoming more so.
Ante las presiones por obtener un resultado positivo, si un estudio no confirma una hipótesis es muy probable que acabe sin ver la luz del día, dado que no contribuye al avance de la carrera del científico. Esto perjudica a la ciencia porque el desarrollo de una teoría depende del conjunto de todos los datos, no solo de los favorables. Por otra parte, abundan quienes torturan los números hasta que les dicen lo que quieren, esto es, hasta que encuentran algo que apoye lo que querían demostrar. En otras ocasiones, un científico puede diseñar un experimento para poner a prueba su hipótesis («¿son más inteligentes las personas guapas?»), encontrarse con otro efecto diferente («no son más inteligentes pero sí más adineradas») y publicar el estudio como si su propósito inicial fuera probar esta última hipótesis (es lo que se conoce como mover los palos de la portería). A veces es una empresa privada la que financia la investigación, como cuando un fabricante de cerveza promueve un estudio que concluye que la cerveza no engorda. Proliferan las pruebas que indican que esta clase de experimentos motivados siempre encuentran lo que estaban buscando.

Por último, no hay que olvidar el fraude puro y llano. En ocasiones se crean datos de la nada o se ocultan algunos de ellos. Asimismo se publican estudios falsos o que nunca tuvieron lugar. Incluso ha habido casos de corrupción en el sistema de revisión por pares. Quienes detectan conductas reprobables no tienen incentivos para denunciarlo debido a que podrían perder su puesto de trabajo o su financiación. Además, uno debe llevarse bien con sus colegas si quiere ver su trabajo publicado.

La ciencia no es un proceso llevado a cabo en el vacío. Es obra de personas de carne y hueso sometidas a los mismos sesgos y limitaciones que el resto de nosotros. A los errores normales de un ser humano hay que sumarle el hecho de que los investigadores están sometidos a mucha competencia lo que, como ocurre en otras profesiones, puede derivar en malas conductas con tal de destacar o, simplemente, mantenerse a flote.

La gente digiere estos hechos de distinta manera. Algunos reniegan totalmente de la ciencia y suscriben (normalmente sin conocerlas) las tesis del filósofo Paul Feyerabend, quien sostenía que la ciencia no posee rasgos especiales que la hagan superior a otras ramas del conocimiento. Él veía la ciencia como la religión moderna y pensaba que desempeña la misma función que ha desempeñado el cristianismo en Europa durante los siglos pasados. Para estas personas, escépticos radicales y posmodernistas, todo es dogma y cada uno abraza el que le parece. Otros buscan en las seudociencias respuestas que la ciencia no tiene (o que sí tiene, pero no concuerdan con su visión del mundo). Finalmente, están quienes reconocen que la ciencia es una tarea ardua y, por ello, siempre tienen presente que no todos los estudios y artículos científicos valen lo mismo, que no todos los científicos son iguales, que la cantidad y calidad de pruebas a favor o en contra de una hipótesis es importante, que parte del conocimiento tiene fecha de caducidad y que la ciencia, en general, es un proceso paulatino de reducción de la incertidumbre y el desconocimiento.

lunes, 17 de agosto de 2015

Cumpleaños «feliz»

Recientemente también ha sido mi cumpleaños y cierto es que pasados los treinta años la ilusión por seguir cumpliendo años va menguando y nos empezamos a preguntar si nuestra vida es satisfactoria, si somos felices, si hemos alcanzado grandes logros, si tenemos un buen trabajo y algunas cuestiones más de esta índole.

En muchos casos la respuesta es no, máxime si lo comparamos con nuestras expectativas de hace unos cuantos años atrás y nos damos cuenta una vez más de lo ingenuo que es el ser humano de niño, la época en la que el futuro se vislumbra lleno de grandes y ambiciosos logros personales, profesionales y también materiales.

Pero con el paso de los años, cuando llevas recorrido gran parte de ese futuro y piensas en las decepciones que lo componen, desaparece ese espejismo del pasado y tienes que conformarte en pensar que forma parte del aprendizaje sobre nuestra andadura por la vida. Y ese ronroneo acerca de la felicidad que con tanta frecuencia nos visita, a veces es tan molesto que para intentar que desaparezca tratamos de esquivarlo pensando en otra cosa, pero eso no acaba por funcionar, porque termina regresando y te obliga a reflexionar sobre ello.

Foto de Francisco Muñoz
Para mí es una cuestión tan sumamente compleja que tras varios años sigo respondiendo que no creo que sea feliz, y es que veo la vida como un puzzle lleno de piezas compuestas por sentimientos y acontecimientos buenos, regulares y malos. Y al tratar de unir esas piezas no consigo dar forma a un puzzle consolidado y equilibrado, puesto que la cantidad de piezas malas supera con creces al resto. Siguiendo este camino no logro obtener el «sí» a la respuesta, aunque mantengo aún a estas alturas la esperanza de que en años venideros se reduzca al menos la llegada de piezas malas.

Son muchas las barreras a las que tenemos que enfrentarnos y me refiero a la gran cantidad de enemigos que se nos presentan como son el odio, el rencor, la envidia, la venganza, la rabia, la impotencia, la desdicha, la fatiga, el desgaste, la tristeza, los complejos y un larguísimo etcétera, que todos bien conocemos.

Qué lástima el tiempo que se malgasta en pensar que somos desgraciados por no conseguir o no tener grandes cosas y qué triste es darse cuenta que desgraciado te sientes no por la ausencia de ello, sino por la ausencia de los ratos de felicidad que te arrebata una desgracia.

Como soy una persona sencilla y cada vez me conformo con menos, para creer que hay algo de felicidad en mi vida intento, en la medida de lo posible y cuando las circunstancias así lo permiten, alimentar la vida con gestos, detalles y momentos que agraden a los demás, más aún a las personas que quiero y aprecio, pues si así resulta, a mi me agradará aún más, pero para ello es muy importante querer y dejarse querer. De esta forma consigo que esa amarga tarta de cumpleaños tenga un toque de dulzura.

Estas humildes y breves palabras no están ni mucho menos a la altura de las publicaciones del autor de este blog, pero como en una ocasión humildemente él mismo me dijo, lo importante es escribir. Por último, me despido aprovechando este espacio para expresar mi enorme admiración hacia él, mi querido amigo, a quien además quiero, admiro y respeto, y mi agradecimiento por permitirme que comparta con él momentos que contribuyen a que lleguen a mi vida piezas de felicidad. Tu amistad en un tesoro muy valioso.

lunes, 10 de agosto de 2015

Rage against the machine

Mark Court es uno de los trabajadores más especializados del planeta. Su trabajo consiste en una sola tarea: dibujar una línea horizontal a mano. Eso es todo. Así es como se gana la vida, dibujando una línea tras otra, cada una igual a la anterior, una y otra vez. El único inconveniente es que la línea ha de ser perfecta. Un error suyo le puede costar a la compañía más de trescientos mil euros.

Court es el encargado de dibujar la línea horizontal (coach line) que decora los laterales de los coches de la marca Rolls-Royce. Este artista emplea alrededor de tres horas en pintar la línea en cuestión, de seis metros de largo a cada lado. Como digo, no puede equivocarse. Le llevó cinco años aprender su labor.

Supe de la existencia de Mark Court gracias a un documental que vi por casualidad sobre la fabricación de los lujosos coches de la célebre marca británica. Casi todo el proceso de ensamblado se hace a mano, lo que explica buena parte del elevado precio de estos automóviles. De todos los pasos el que más me llamó la atención fue este del dibujado de la línea pues pienso (como otras personas con las que comenté el documental) que un robot podría hacerlo mejor y más rápido. Los robots no se cansan, no les tiembla el pulso y pueden tener una precisión mucho mayor que cualquier humano, razones todas ellas por las que algunos procedimientos quirúrgicos han dejado de hacerse a mano.

El mismo dibujo puede tener dos interpretaciones distintas según su creador. Si es obra de Mark Court, hablamos de arte. Si es fruto de un proceso de fabricación automatizado, es una recta más, sin nada de especial. A la hora de elegir, son muchos los que prefieren lo «hecho a mano», lo artesanal, lo «natural». De acuerdo con Daniel Kahneman, este sesgo es una de las razones que explica nuestra hostilidad hacia los algoritmos:

Cuando un ser humano compite con una máquina, sea John Henry con el martillo de vapor en la montaña o el genio del ajedrez Garry Kaspárov enfrentado a la computadora Deep Blue, nuestras simpatías están con nuestro semejante. La aversión a los algoritmos que toman decisiones que afectan a los seres humanos está arraigada en la clara preferencia que muchas personas tienen por lo natural frente a lo sintético o artificial. Si se les preguntara si comerían antes una manzana cultivada con abono orgánico que otra cultivada con fertilizantes artificiales, la mayoría de ellas preferirían la manzana «cien por cien natural». Incluso después de informarles de que las dos manzanas tienen el mismo sabor y el mismo valor nutritivo, y son iguales de sanas, la mayoría preferirían la manzana natural.
Parece que no solo nos importa el producto final, sino cómo ha sido fabricado. De igual manera, cuando se cometen errores la causa de los mismos se nos antoja relevante. ¿Acaso no habría diferentes reacciones en la opinión pública si un paciente muriese por no haber recibido tratamiento, según si dicha decisión fuera obra de un médico o de un algoritmo? Esta es la segunda razón por las que muchos son reacios a utilizar métodos estadísticos cuando se trata de tomar decisiones transcendentales que afectan a las personas (ibídem Kahneman):

El prejuicio contra los algoritmos aumenta cuando las decisiones son trascendentales. Meehl comentó: «No sé cómo atenuar el horror que algunos clínicos parecen experimentar cuando prevén que se vaya a negar el tratamiento a un caso tratable porque una ecuación “ciega y mecánica” lo desclasifique». [...] [P]ara la mayoría de las personas, la causa de un error es importante. El caso de un niño que muera porque un algoritmo ha cometido un error es más penoso que el de la misma tragedia producida a consecuencia de un error humano, y la diferencia de intensidad emocional es traducida enseguida a preferencia moral.
Sin embargo, tal como arguyen los partidarios de los algoritmos, si disponemos de un método que comete menos errores que los expertos ¿no estamos moralmente obligados a usarlo? Como tantos otros argumentos racionales, este se enfrenta a realidades psicológicas pertinaces que inclinan la balanza a favor de la irracionalidad.

Los Rolls-Royce no son los únicos coches que se fabrican a mano total o parcialmente. Según este artículo, BMW, Porsche, Ford y Volkswagen confían en las manos y los ojos de sus empleados para ciertas tareas. Escribe el autor del artículo:

[P]ara los coches de más valor los fabricantes confían en las manos de sus trabajadores. A pesar de la proliferación de los robots, una persona es la que debe controlar la máquina y controlar los procesos de calidad en la cadena.
Esa es una idea que analizamos someramente en el pasado artículo, la del humano controlando a la máquina. Vimos que las pruebas apuntan a que, si queremos obtener las mejores decisiones o predicciones, lo mejor es dejar sola a la máquina. No obstante, para muchos es inconcebible someterse a una inteligencia artificial sin tener la opción de desactivarla u omitirla a discreción. Por desgracia, tener esa opción puede causarnos verdaderos problemas, pues nos pasamos de listos con demasiada frecuencia. Ian Ayres, autor de Super Crunchers, cuenta la historia de un comité de libertad condicional que decidió liberar a un recluso ignorando su puntuación en un sistema que el tribunal utilizaba para calcular el riesgo de reincidencia llamado RRASOR (Rapid Risk Assessment for Sexual Offender Recidivism). El delincuente en cuestión, Paul Herman Clouston, había sido condenado –entre otras cosas– por agresión sexual con agravante, secuestro y asaltos a menores. Tan pronto como fue liberado, huyó, convirtiéndose en uno de los hombres más buscados del estado de Virginia. Su riesgo de reincidencia según el sistema RRASOR era de cuatro sobre cinco, lo que significaba que tenía más del cincuenta y cinco por ciento de probabilidades de cometer otro crimen sexual en los diez años siguientes a su liberación. Fue capturado en 2010. No he podido averiguar si cometió algún crimen durante el tiempo que estuvo fugado.

En mi opinión, el mayor escollo al que se enfrenta la adopción de los algoritmos tiene que ver con nuestra experiencia diaria de la tecnología y de la inteligencia artificial. Nuestros ordenadores y teléfonos «inteligentes» se bloquean, nos obligan a reiniciarlos y hacen cosas raras, como perder la conexión a internet sin venir a cuento. Intentar seleccionar texto en un dispositivo móvil es capaz de hacer aflorar lo peor de cada persona. Yo trabajo con ordenadores a diario y a menudo tengo ganas de estampar el portátil contra la pared, un sentimiento que, a juzgar por los gritos de mis compañeros y los golpes furibundos a la tecla «Intro», es bastante común. No es raro que la ira hacia las máquinas se manifieste físicamente.

Además de los fallos en el funcionamiento diario, a menudo nos encontramos con que la inteligencia artificial no es nada inteligente, como ese algoritmo que no distinguía un leopardo de un sofá, o Siri, el asistente virtual de Apple, que hace cosas como esta:

Fuente: Reddit


Mientras la tecnología no sea perfecta siempre tendremos nuestras reservas. Por tanto, mucho me temo que dichas reservas nunca desaparecerán. Los algoritmos pueden darnos soluciones pero, incluso aunque sean perfectos en sus aciertos, plantean nuevos problemas y riesgos. Por ejemplo, cuando nos enfrentamos a un problema para el que hay pocos precedentes o ninguno, las soluciones basadas en estadísticas son inútiles. También pueden ser de poca ayuda si no podemos registrar los datos pertinentes (es relativamente fácil llevar un registro de cada clic hecho por los visitantes de nuestra tienda virtual pero no lo es tanto registrar síntomas físicos o sensaciones subjetivas). Cuando se trata de hacer predicciones, es posible que los algoritmos sean totalmente inútiles en sistemas reflexivos como la economía, donde las predicciones sobre el devenir de los acontecimientos influyen en los eventos futuros.

Asimismo, puede ocurrir que la rígida dependencia de los algoritmos mine nuestra creatividad. Nuestros sesgos y puntos ciegos se replicarán en nuestros programas. Habrá ocasiones en que no podremos distinguir un error del programa de una genialidad, como ocurría con Deep Blue. Puede darse el caso de que el modelo sea muy bueno pero no sepamos cómo toma las decisiones que toma. Y siempre habrá dilemas morales a los que enfrentarse, como los suscitados por aquel padre que se enteró de que su hija estaba embarazada cuando la empresa Target le mandó ofertas especiales para futuras madres a su hija; los algoritmos de análisis de Target detectaron cambios en los hábitos de compra de la adolescente y predijeron correctamente que había quedado encinta. La tecnología también abre la puerta a la realización de viejos experimentos mentales filosóficos. Por ejemplo, ¿debe un coche autónomo sacrificar a su pasajero en un accidente si con ello salva la vida de cinco ocupantes de otro vehículo de la carretera?

Nate Silver observa en su obra (de donde he tomado el título para esta entrada) que nosotros mismos somos la mayor limitación a la tecnología. El ritmo de la evolución natural queda muy por detrás en comparación con el de la evolución tecnológica y nuestro cerebro no está preparado para trabajar en un mundo inundado de datos: vemos patrones donde solo hay ruido y damos demasiada importancia a correlaciones espurias. Al igual que este autor, creo que debemos ver la tecnología como lo que siempre ha sido: una herramienta para mejorar la condición humana. Por un lado, no debemos profesarle culto como a un dios ni someternos a ella sin pensar. Pienso que debemos mostrar cierto escepticismo ante la idea promulgada por autores como Matt Ridley de que la tecnología resolverá todos nuestros problemas. Por otra parte, también creo que no debemos luchar contra la misma como si fuera el mismo diablo, negando sus ventajas por principio y asumiendo que una tarea la hacemos mejor nosotros por el mero hecho de ser humanos. Y, por supuesto, no tiene por qué asustarnos el adjetivo «artificial». Como dice Silver: «computers are themselves a reflection of human progress and human ingenuity: it is not really “artificial” intelligence if a human designed the artifice».

lunes, 3 de agosto de 2015

Luditas 2.0

Imaginen que tienen un problema de salud y reciben dos diagnósticos, uno de ellos realizado por un doctor de carne y hueso y el otro por un programa de ordenador. Los diagnósticos no coinciden y los tratamientos son totalmente diferentes. ¿Con cuál se quedarían?

El diagnóstico médico parece un problema demasiado complejo como para que una máquina pueda resolverlo. Sirvan como muestra las palabras del cirujano Atul Gawande:

La mayoría de los facultativos cree que el diagnóstico no puede reducirse a una serie de generalizaciones, a un «libro de recetas de cocina», como dicen algunos. Argumentan que deben tenerse en cuenta las características de cada paciente.

Esto es algo obvio. Cuando soy el especialista de cirugía en la unidad de urgencias, me suelen pedir que evalúe si un paciente con dolor abdominal tiene apendicitis. Escucho con atención su historia y considero multitud de factores: cómo noto su abdomen, el tipo de dolor y su localización, la temperatura del paciente, el apetito, los análisis. Pero no lo reduzco todo en una fórmula y calculo el resultado. Utilizo mi criterio clínico, mi intuición para decidir si hay que operarle, tenerle en el hospital en observación o enviarle a casa.
Y así, concluye:

Ninguna fórmula puede tener en cuenta la infinita variedad de sucesos excepcionales que pueden darse. Éste es el motivo por el que los médicos están convencidos de que es mejor mantenerse fial a sus instintos a la hora de realizar un diagnóstico.
En este mismo sentido, existen médicos que se muestran cautelosos cuando se trata de aplicar la medicina basada en pruebas, la cual, por su propia naturaleza, está basada en la estadística:

Las estadísticas no pueden sustituir al ser humano que uno tiene delante; las estadísticas se refieren a una media, no a los individuos. Los números sólo pueden complementar la experiencia personal del médico con un fármaco o un procedimiento, así como su conocimiento sobre si un tratamiento «mejor» de un ensayo clínico convendría a las necesidades y características especiales de un paciente.
También cabe argumentar que los métodos matemáticos no son útiles en casos fuera de lo normal:

Los algoritmos clínicos pueden ser útiles para diagnósticos y tratamientos corrientes, por ejemplo, distinguir la infección de garganta por estreptococos de la faringitis viral. Sin embargo, se desmoronan rápidamente cuando un médico necesita pensar más allá de los recuadros, cuando los síntomas son vagos, o múltiples y confusos, o cuando los resultados de las pruebas son inexactos. En esos casos –aquellos donde más falta hace un médico con capacidad de discernimiento– los algoritmos impiden a los médicos pensar con independencia y creatividad. En lugar de expandir el pensamiento de un médico, acaban por limitarlo.
Finalmente, es posible que Deep Blue batiera a Kasparov, pero el diagnóstico clínico no es un juego de reglas fijas:

[El ajedrez] es un juego complejo, pero es bidimensional y está basado en reglas fijas y claras, con piezas que nunca varían. El diagnóstico de pacientes por el contrario, tiene cuatro dimensiones (reúne las tres dimensiones espaciales y la cuarta dimensión del tiempo), no tiene reglas invariables e implica «piezas» (cuerpos) que no son iguales.
Imagen de 219Eastern
Todos estos razonamientos tan convincentes asoman la cabeza cada vez que un algoritmo rinde mejor que los expertos de carne y hueso. Los resultados de Paul Meehl sobre la superioridad de los algoritmos frente a los humanos en el diagnóstico clínico fueron recibidos con hostilidad e incredulidad. El método estadístico era criticado como mecánico, artificial, irreal, arbitrario, incompleto, estéril y otras lindeces por el estilo. Los sumillers rechazaron la fórmula de Ashenfelter bajo la premisa de que sus conclusiones eran ridículas y absurdas, pues juzgar un vino sin probarlo era como calificar una película sin haberla visto. Los ojeadores y los entrenadores deportivos siguen confiando en su instinto. Y así un largo etcétera, a pesar de las pruebas que sustentan la superioridad de los métodos matemáticos.

Sospecho que cualquier persona que se enfrente al hecho de que parte de su trabajo puede hacerlo mejor una inteligencia artificial mostraría el mismo rechazo. Para un profesional especializado, alguien consciente de toda la complejidad, los matices y las posibilidades de su campo de conocimiento es difícil asumir que todo eso pueda reducirse a una simple ecuación. Pero, como vimos en el artículo anterior, la complejidad no solo no da ventaja al experto frente al algoritmo, sino que es precisamente la causa del error humano. Por muy razonables que suenen su argumentos en contra, en la práctica lo más frecuente es que una simple combinación de factores con los pesos adecuados supere al juicio de un experto.

Si bien es la complejidad lo que lleva a los expertos a equivocarse normalmente, lo cierto es que en raras ocasiones dicha complejidad sí que cuenta. Supongan, verbigracia, que una fórmula predice que Cristiano Ronaldo marcará dos goles en el próximo partido. Supongan, además, que la fórmula es fiable al noventa y nueve por ciento. Entran en un portal de apuestas por internet para ganarse un dinerito extra con dicha información y ahí, en la sección de noticias, se encuentran con el siguiente titular: «Cristiano Ronaldo sufre una rotura de ligamentos en su rodilla y será baja durante tres semanas». ¿Procederían con su apuesta? Obviamente no. Si Ronaldo no puede jugar, da igual lo que diga la fórmula. Este supuesto se conoce como «el problema de la pierna rota»:

To cede complete decision-making power to lock up a human to a statistical algorithm is in many ways unthinkable. Complete deference to statistical prediction in this or other contexts would almost certainly lead to the odd decision that at times we “know” is going to be wrong. Indeed, Paul Meehl long ago worried about the “case of the broken leg.”
[...] A statistical procedure cannot estimate the causal impact of rare events (like broken legs) because there simply aren’t enough data concerning them to make a credible estimate. The rarity of the event doesn’t mean that it will not have a big impact when the event does in fact occur. It just means that statistical formulas will not be able to capture the impact.
Evidentemente, en estas situaciones el algoritmo no sirve de nada. Pero no hemos de olvidar que estos casos son, por definición, infrecuentes (si no lo fueran, estarían contemplados en la fórmula). Por tanto, otorgan un escaso margen de ventaja. En cualquier caso, las observaciones atípicas también pueden dar ventaja a un sistema experto digital en lugar de a un médico. Una base de datos puede almacenar información sobre todas las enfermedades conocidas y sus síntomas, así como recuperar dicha información en segundos. Por contra, un galeno no puede saberlo todo. Cuando una enfermedad es poco común, no es sorprendente que se pase por alto y el diagnóstico sea equivocado. Lisa Sanders cuenta la historia de cómo un médico pudo diagnosticar correctamente y salvar la vida a una paciente aquejada de una rara enfermedad africana gracias a un sistema experto sobre enfermedades infecciosas llamado GIDEON. De no haber sido por este sistema el médico no habría podido dar con el medicamento necesario para combatir la infección.

Tal vez estén pensando que la solución ideal consista en mezclar ambos mundos. Si combinamos expertos y algoritmos ¿obtendremos mejores resultados? De acuerdo con Ian Ayres, por lo general las personas hacen mejores predicciones cuando se les informa de los resultados de una predicción estadística. Sin embargo, incluso con esa ayuda sus predicciones son peores que las del modelo matemático a solas. Cuando el humano y la máquina no están de acuerdo, usualmente es mejor atenerse a la decisión de la predicción estadística.

¿Y si limitamos la intervención humana a identificar los casos de «piernas rotas», de manera que sea una persona la que decida si hay que optar por seguir la decisión del algoritmo, o bien omitirla y hacer caso al juicio experto? El problema en estos casos es que la gente ve piernas rotas por todas partes:

In context after context, decision makers who wave off the statistical predictions tend to make poorer decisions. The expert override doesn’t do worse when a true broken leg event occurs. Still, experts are overconfident in their ability to beat the system. We tend to think that the restraints are useful for the other guy but not for us. So we don’t limit our overrides to the clear cases where the formula is wrong; we override where we think we know better. And that’s when we get in trouble.
Las dos soluciones anteriores sitúan al humano por encima o al mismo nivel que la máquina. Sin embargo, si lo que queremos es el mejor diagnóstico o la mejor predicción posible, parece que la forma de lograrlo es supeditar el hombre a la máquina. Por ejemplo, en 2005 dos veinteañeros ganaron un torneo de ajedrez utilizando tres programas simultáneamente para decidir sus movimientos. En lugar de postularse como jugadores se relegaron a sí mismos a un segundo plano como entrenadores:

In 2005, the Web site ChessBase.com, hosted a “freestyle” chess tournament: players were free to supplement their own insight with any computer program or programs that they liked, and to solicit advice over the Internet. Although several grandmasters entered the tournament, it was won neither by the strongest human players nor by those using the most highly regarded software, but by a pair of twentysomething amateurs from New Hampshire, Steven Cramton and Zackary “ZakS” Stephen, who surveyed a combination of three computer programs to determine their moves. Cramton and Stephen won because they were neither awed nor intimidated by technology. They knew the strengths and weakness of each program and acted less as players than as coaches.
En varios estudios, la mejor forma de explotar el conocimiento de los expertos fue añadir su evaluación como un factor más a considerar por el algoritmo. De esta manera los ordenadores pueden tener en cuenta aquellas informaciones que los humanos identifican mejor y así el porcentaje de acierto es mayor.

Hoy día todos somos conscientes de que si queremos cálculos rápidos y exactos hemos de recurrir a un ordenador en lugar de a un cerebro humano. También damos por sentado que si necesitamos conocer ciertos datos, como el origen de una palabra, una fecha histórica o el creador de una obra artística terminaremos antes buscándolo en Google que preguntando a nuestros conocidos. Es de suponer que, conforme la tecnología vaya mejorando y expandiéndose, las nuevas generaciones crezcan asumiendo que los ordenadores hacen mejores predicciones que los humanos. Actualmente, nadie se extraña de que las calificaciones de riesgo crediticio las haga un ordenador, cuando hasta hace no mucho esa era una tarea humana. En el futuro, quizá ocurra lo mismo con el diagnóstico clínico.