lunes, 28 de marzo de 2016

Estupidez natural

Pedro Domingos es un profesor de la Universidad de Washington bastante conocido en el ámbito del machine learning, una disciplina que mezcla inteligencia artificial con matemáticas estadísticas. El año pasado se publicó su primer libro para el gran público, obra que terminé de leer recientemente. Quiso la casualidad que poco después tuviera el enfrentamiento entre Lee Sedol y AlphaGo. Sedol es el mejor jugador del mundo de Go, un juego de tablero para dos personas originario de China y muy popular en Japón. Investigadores de Google crearon el mencionado programa de ordenador con la intención de batirle, igual que sucedió en su día con Gary Kasparov y Deep Blue. Como probablemente ya sepan, el resultado final fue de cuatro victorias para AlphaGo y una para Sedol.

Foto de Sean Davis
Esta semana la inteligencia artificial ha vuelto a ser noticia debido a un experimento que hubo de interrumpirse prematuramente. El pasado miércoles la gente de Microsoft activó Tay, un programa de conversación por Twitter que tenía como fin hablar y entretener al público estadounidense de dieciocho a veinticuatro años a través de Twitter. Tay no solo imitaba la forma de expresarse de su población objetivo, sino que era capaz de aprender de las conversaciones que tenía, de manera que cuanto más hablaba más lista se volvía. O esa era la idea, al menos.

A estas alturas ya sabrán (o imaginarán) cómo acabó el experimento. En apenas veinticuatro horas, Tay se convirtió en una racista que publicó tuits apoyando a Hitler y negando el holocausto, además de abogar por la muerte de todas las feministas y otras lindeces por el estilo. Microsoft tuvo que detener el experimento y, de momento, si intentan hablar con Tay les dirá que está en su actualización anual con los ingenieros.

El año pasado hablamos bastante sobre inteligencia artificial. Como ya dijimos, actualmente los algoritmos nos rodean:

You may not know it, but machine learning is all around you. When you type a query into a search engine, it’s how the engine figures out which results to show you (and which ads, as well). When you read your e-mail, you don’t see most of the spam, because machine learning filtered it out. Go to Amazon.com to buy a book or Netflix to watch a video, and a machine-learning system helpfully recommends some you might like. Facebook uses machine learning to decide which updates to show you, and Twitter does the same for tweets. Whenever you use a computer, chances are machine learning is involved somewhere.
Existen muchísimos algoritmos de aprendizaje, y cada año aparecen cientos de ellos más. A grandes rasgos, todos se agrupan en cinco grandes familias o «tribus» (ibídem Domingos):

Symbolists view learning as the inverse of deduction and take ideas from philosophy, psychology, and logic. Connectionists reverse engineer the brain and are inspired by neuroscience and physics. Evolutionaries simulate evolution on the computer and draw on genetics and evolutionary biology. Bayesians believe learning is a form of probabilistic inference and have their roots in statistics. Analogizers learn by extrapolating from similarity judgments and are influenced by psychology and mathematical optimization.
Aunque no todos los algoritmos funcionan igual sí que tienen en común una fase inicial de entrenamiento en la que se alimenta al algoritmo con un conjunto de datos que contienen aquello que queremos aprender. Por ejemplo, se le pueden proporcionar correos electrónicos etiquetados según sean o no correo basura para que el algoritmo pueda aprender a distinguirlos. También se le pueden proporcionar fotografías para que sea capaz de reconocer caras. O, como el caso de Tay, los datos de entrenamiento pueden ser tuits con los que el algoritmo aprenda cómo se expresan los jóvenes y qué piensan.

Los algoritmos de aprendizaje intentan hacer generalizaciones a partir de los datos con los que son entrenados, pero están limitados al contenido de dichos datos. Si a nuestro programa de detección de spam no le damos ningún correo de ese tipo, será incapaz de detectarlos. De la misma forma, si los datos con los que entrenamos nuestro programa de conversación contienen mensajes xenófobos, eso será lo que aprenda y acabe diciendo.

Que los modelos de machine learning dependan de los datos con los que son entrenados significa que no son neutrales, sino que incorporan el sesgo de sus creadores. Imaginen que alguien quiere crear un robot economista para descubrir nuevas formas de mejor la economía, al estilo de los algoritmos que diseñan nuevas antenas o teoremas matemáticos. Para poder entrenarlo habría que proporcionarle un montón de datos sobre países cuyas economías van bien y otros que van mal. Ahí es donde empezarían los problemas, pues alcanzar un consenso sobre lo que es una economía «buena» es mucho más difícil de lo que parece. Por ejemplo, algunos economistas piensan que la inflación debería ser del dos por ciento (esa es la misión del BCE), otros creen que del cuatro, y otros piensan que la inflación es mala siempre. Una discusión similar podría tener lugar acerca del déficit fiscal o la tasa de paro. Por tanto, los datos de entrenamiento estarán sesgados de un modo u otro. Como resultado, nuestro robot también lo estará.

Esta falta de objetividad nos hace ver por qué es tan peliagudo dejar en manos de un robot ciertas tareas como, pongamos por caso, apretar el gatillo. En principio, sería posible enseñarle a una máquina la ética suficiente para que pudiera tomar sus propias decisiones (ibídem Domingos):

First, teach the robot to recognize the relevant concepts, for example with data sets of situations where civilians were and were not spared, armed response was and was not proportional, and so on. Then give it a code of conduct in the form of rules involving these concepts. Finally, let the robot learn how to apply the code by observing humans: the soldier opened fire in this case but not in that case. By generalizing from these examples, the robot can learn an end-to-end model of ethical decision making [...]. Once the robot’s decisions agree with a human’s as often as one human agrees with another, the training is complete, meaning the model is ready for download into thousands of robot brains. Unlike humans, robots don’t lose their heads in the heat of combat. If a robot malfunctions, the manufacturer is responsible. If it makes a wrong call, its teachers are.
Pero esto tendría el problema evidente puesto de manifiesto por el robot de Microsoft: los humanos no siempre son unos profesores de fiar. Si, verbigracia, nuestro robot aprendiera a disparar viendo vídeos de la policía estadounidense acabaría matando a mucha gente, con un sesgo negativo hacia los jóvenes negros.

Deberíamos, por tanto, entrenar al robot de forma supervisada. Sin embargo, ello nos lleva de nuevo al problema anterior, en el que no hay acuerdo sobre lo correcto y lo incorrecto. La moral es un área repleta de casos límite, zonas grises y principios contradictorios en el que no existen respuestas objetivamente correctas. Si entrenamos de forma supervisada al robot, dándole ejemplos y especificando si el disparo fue correcto o no, estaremos introduciendo el sesgo de nuestra propia ética (ibídem Domingos):

We can clean up the training data by including only the examples where, say, a panel of ethicists agrees that the soldier made the right decision, and the panelists can also inspect and tweak the model post-learning to their satisfaction. Agreement may be hard to reach, however, particularly if the panel includes all the different kinds of people it should. Teaching ethics to robots, with their logical minds and lack of baggage, will force us to examine our assumptions and sort out our contradictions. In this, as in many other areas, the greatest benefit of machine learning may ultimately be not what the machines learn but what we learn by teaching them.
A estas horas, los ingenieros de Tay todavía están implentando en ella algo de corrección política. En otras palabras, están censurando los mensajes que el robot puede emitir. Eso quiere decir que, en lo sucesivo, Tay no podrá aprender cualquier cosa como hacía hasta ahora, sino lo que encaje con sus prejuicios. Igualito que los seres humanos.

No hay comentarios:

Publicar un comentario